開発者ガイド

Red Hat JBoss Data Grid 7.1

Red Hat JBoss Data Grid 7.1 向け

Red Hat Customer Content Services

概要

JBoss Data Grid 7.1 を使用している開発者向けの高度なガイド

パート I. プログラミング可能な API

第1章 プログラミング可能な API

Red Hat JBoss Data Grid は以下のプログラム可能な API を提供します。

  • Cache
  • Batching
  • Grouping
  • Persistence (以前は CacheStore)
  • ConfigurationBuilder
  • Externalizable
  • Notification (通知とリスナーを処理するため、Listener API とも呼ばれます)

第2章 キャッシュ API

2.1. キャッシュ API

Cache インターフェースは、エントリーを追加、読み出し、および削除するために簡単なメソッドを提供します。これには JDK の ConcurrentMap インターフェースによって公開されるアトミックメカニズムが含まれます。エントリーが格納される方法は、使用されるキャッシュモードによって異なります。たとえば、エントリーがリモートノードへレプリケートされたり、キャッシュストアで検索されたりします。

基本的な作業では、キャッシュ API は JDK マップ API と同様に使用されます。そのため、マップベースの簡単なインメモリーキャッシュを Red Hat JBoss Data Grid のキャッシュへ移行する処理が容易になります。

注記

この API は JBoss Data Grid のリモートクライアントサーバーモードでは使用できません。

2.2. ConfigurationBuilder API を使用したキャッシュ API の設定

Red Hat JBoss Data Grid は ConfigurationBuilder API を使用してキャッシュを設定します。

キャッシュは ConfigurationBuilder ヘルパーオブジェクトを使用してプログラミングによって設定されます。

以下は、ConfigurationBuilder API を使用してプログラミングにより設定され、同期的にレプリケートされたキャッシュの例になります。

プログラミングによるキャッシュの設定

Configuration c = new ConfigurationBuilder().clustering().cacheMode(CacheMode.REPL_SYNC).build();

String newCacheName = "repl";
manager.defineConfiguration(newCacheName, c);
Cache<String, String> cache = manager.getCache(newCacheName);

  1. 設定の最初の行で、ConfigurationBuilder を使用して新しいキャッシュ設定オブジェクト (c) が作成されます。設定 c には、キャッシュモードを除くすべてのキャッシュ設定オプションのデフォルト値が割り当てられ、この値は上書きされ、同期レプリケーション (REPL_SYNC) に設定されます。
  2. 設定の 2 行目で、新しい変数 (タイプが String) が作成され、値 repl が割り当てられます。
  3. 設定の 3 行目で、キャッシュマネージャーは名前付きキャッシュ設定を定義するために使用されます。この名前付きキャッシュ設定は repl と呼ばれ、設定は最初の行のキャッシュ設定 c に提供された設定に基づきます。
  4. 設定の 4 行目で、キャッシュマネージャーで保持された repl の一意のインスタンスに対する参照を取得するために、キャッシュマネージャーが使用されます。このキャッシュインスタンスはデータを格納および取得する操作を実行するために使用できます。
注記

JBoss EAP には独自の基礎となる JMX が含まれています。そのため、JBoss EAP でサンプルコードを使用するときに競合が発生し、org.infinispan.jmx.JmxDomainConflictException: Domain already registered org.infinispan などのエラーが表示されることがあります。

この問題を回避するには、以下のようにグローバル設定を指定します。

GlobalConfiguration glob = new GlobalConfigurationBuilder()
	.clusteredDefault()
        .globalJmxStatistics()
          .allowDuplicateDomains(true)
          .enable()
        .build();

2.3. 呼び出しごとのフラグ

2.3.1. 呼び出しごとのフラグ

Red Hat JBoss Data Grid では呼び出しごとのフラグを使用して各キャッシュコールの動作を指定できます。呼び出しごとのフラグは、時間を節約できる最適化の実装を容易にします。

2.3.2. 呼び出しごとのフラグ機能

Red Hat JBoss Data Grid のキャッシュ APIputForExternalRead() メソッドは内部的にフラグを使用します。このメソッドは、外部リソースからロードされたデータが含まれる JBoss Data Grid キャッシュをロードできます。この呼び出しの効率性を改善するために、JBoss Data Grid は通常の put 操作を呼び出して以下のフラグを渡します。

  • ZERO_LOCK_ACQUISITION_TIMEOUT フラグ: 外部ソースからキャッシュへデータをロードするときに JBoss Data Grid のロック取得時間がほぼゼロになります。
  • FAIL_SILENTLY フラグ: ロックを取得できない場合に、JBoss Data Grid はロック取得例外を発生せずに失敗します。
  • FORCE_ASYNCHRONOUS フラグ: クラスター化された場合に、設定されたキャッシュモードに関係なくキャッシュが非同期にレプリケートされます。結果として、他のノードからの応答は必要ありません。

上記のフラグを組み合わせると、操作の効率性が大幅に向上します。この効率性の基礎として、データがメモリーにない場合にクライアントは永続ストアから必要なデータを取得できるため、このタイプの putForExternalRead コールが使用されます。クライアントはキャッシュミスを検出すると操作を再試行します。

JBoss Data Grid で使用できる全フラグの詳細リストは、JBoss Data Grid API ドキュメントの Flag クラスを参照してください。

2.3.3. 呼び出しごとのフラグの設定

Red Hat JBoss Data Grid で呼び出しごとのフラグを使用するには、withFlags() メソッド呼び出しを使用して必要なフラグを高度なキャッシュに追加します。

呼び出しごとのフラグの設定

Cache cache = ...
	cache.getAdvancedCache()
	   .withFlags(Flag.SKIP_CACHE_STORE, Flag.CACHE_MODE_LOCAL)
	   .put("local", "only");

注記

呼び出されたフラグは、キャッシュ操作の間のみアクティブになります。同じトランザクション内の複数の呼び出しで同じフラグを使用するには、各呼び出しに withFlags() メソッドを使用します。キャッシュ操作を別のノードにレプリケートする必要がある場合は、フラグがリモートノードにも使用されます。

2.3.4. 呼び出しごとのフラグの例

put() などの書き込み操作が以前の値を返してはならない JBoss Data Grid のユースケースでは、 IGNORE_RETURN_VALUES フラグが使用されます。このフラグにより分散環境で (以前の値を取得するための) リモート検索が実行されないようにし、不必要な以前の値が取得されないようにします。さらに、キャッシュがキャッシュローダーで設定された場合、このフラグによって以前の値がキャッシュストアからロードされないようにします。

IGNORE_RETURN_VALUES フラグの使用

Cache cache = ...
	cache.getAdvancedCache()
	   .withFlags(Flag.IGNORE_RETURN_VALUES)
	   .put("local", "only")

2.4. AdvancedCache インターフェース

2.4.1. AdvancedCache インターフェース

Red Hat JBoss Data Grid は AdvancedCache インターフェースを提供し、単純な Cache インターフェース以外に JBoss Data Grid を拡張します。 AdvancedCache インターフェースは以下を実行できます。

  • カスタマーインターセプターのインジェクト
  • 特定の内部コンポーネントへのアクセス
  • フラグを適用して特定のキャッシュメソッドの動作を変更

以下のコード例は AdvancedCache の取得方法の例を示しています。

AdvancedCache advancedCache = cache.getAdvancedCache();

2.4.2. AdvancedCache インターフェースでのフラグの使用

Red Hat JBoss Data Grid の特定のキャッシュメソッドにフラグが適用されると、ターゲットメソッドの動作が変更されます。キャッシュ呼び出しに任意の数のフラグを適用するには、AdvancedCache.withFlags() を使用します。

フラッグのキャッシュ呼び出しへの適用

advancedCache.withFlags(Flag.CACHE_MODE_LOCAL, Flag.SKIP_LOCKING)
   .withFlags(Flag.FORCE_SYNCHRONOUS)
   .put("hello", "world");

2.4.3. ディストリビューションでの GET および PUT の使用

2.4.3.1. ディストリビューションでの GET および PUT の使用

ディストリビューションモードでは、キャッシュは write コマンドの前にリモートで GET コマンドを実行します。これは、Cache.put() などの一部のメソッドは、java.util.Map コントラクトにしたがって指定されたキーに関連する以前の値を返すためです。これがキーを所有しないインスタンスで実行され、エントリーが L1 キャッシュにない場合、PUT の前にリモートで GET を実行することが唯一信頼できる戻り値の取得方法になります。

Red Hat JBoss Data Grid は戻り値を待たなければならないため、キャッシュが同期または非同期であるかに関わらず、 PUT 操作の前に発生する GET 操作は常に同期になります。

2.4.3.2. 分散された GET および PUT 操作のリソース使用

ディストリビューションモードでは、キャッシュが GET 操作を実行してから PUT 操作を実行することがあります。

この操作は、リソースの面では非常にコストのかかる操作になります。リモートの GET 操作は同期であるにも関わらず、すべての応答を待たないため、無駄になるリソースが発生します。 GET 処理は最初に受信する有効な応答を許可するため、パフォーマンスとクラスターの大きさとの関連性はありません。

実装に戻り値が必要でない場合、Flag.SKIP_REMOTE_LOOKUP フラグを呼び出しごとの設定に使用します。

このような動作は、キャッシュの操作やパブリックメソッドの正確な機能に悪影響を与えるものではありませんが、java.util.Map インターフェースコントラクトに違反します。これは、信頼できない不正確な戻り値が特定のメソッドに提供されるためコントラクトに違反します。そのため、必ずこれらの戻り値が設定上重要な目的に使用されないようにしてください。

2.4.4. Map メソッドの制限

size()values()keySet()entrySet() などの特定の Map メソッドは不安定であるため、Red Hat JBoss Data Grid では一定の制限付きで使用することができます。これらのメソッドはロック (グローバルまたはローカル) を取得せず、同時編集、追加、および削除はこれらの呼び出しでは考慮されません。

一覧表示されるメソッドはパフォーマンスに大きく影響します。そのため、情報収集やデバッグの目的でのみこれらのメソッドを使用することが推奨されます。

パフォーマンスの問題

JBoss Data Grid 7.1 では、map メソッド size()values(), keySet()、および entrySet() にデフォルトでキャッシュローダーのエントリーが含まれます。使用されるキャッシュローダーはこれらのコマンドのパフォーマンスに直接影響を与えます。たとえば、データベースを使用している場合、これらのメソッドはデータが格納されるテーブルの完全なスキャンを実行し、処理が遅くなることがあります。キャッシュローダーからエントリーをロードしないようにし、パフォーマンスの低下を避けるには、必要なメソッドを実行する前に Cache.getAdvancedCache().withFlags(Flag.SKIP_CACHE_LOAD) を使用します。

size() メソッドの概要 (埋め込みキャッシュ)

JBoss Data Grid 7.1 では、Cache.size() メソッドは、クラスター全体で、このキャッシュとキャッシュローダーの両方にあるすべての要素の数を提示します。ローダーまたはリモートエントリーを使用している場合、メモリー関連の問題の発生を防げるようにエントリーのサブセットのみが指定時にメモリーに保持されます。すべてのエントリーをロードする場合、その速度が遅くなる場合があります。

この操作モードでは、size() メソッドで返される結果は、ローカルノードにあるエントリー数を返すよう強制実行する org.infinispan.context.Flag#CACHE_MODE_LOCAL フラグと、パッシべートされたエントリーを無視する org.infinispan.context.Flag#SKIP_CACHE_LOAD フラグによって影響を受けます。これらのフラグのいずれかを使用すると、クラスター全体ですべての要素の数を返さない代わりにこのメソッドのパフォーマンスを上げることができます。

size() メソッドの概要 (リモートキャッシュ)

JBoss Data Grid 7.1 では、Hot Rod プロトコルには専用の SIZE 操作が含まれ、クライアントはこの操作を使用してすべてのエントリーのサイズを計算します。

第3章 非同期 API

3.1. 非同期 API

Red Hat JBoss Data Grid は同期 API メソッドの他に、非ブロッキング方式で同じ機能を実現する非同期 API も提供します。

非同期メソッドの命名規則は、同期メソッドの命名規則と似ていますが、各メソッド名の初めに Async が追加されます。非同期メソッドは、操作の結果が含まれる Future を返します。

たとえば、Cache<String, String> とパラメーター化されたキャッシュでは、Cache.put(String key, String value)String を返します。また、Cache.putAsync(String key, String value)FutureString を返します。

3.2. 非同期 API の利点

非同期 API はブロックしないため、以下のような複数の利点があります。

  • 同期通信が保証される (エラーと例外を処理する機能が追加される)。
  • 呼び出しが完了するまでスレッドの操作をブロックする必要がない。

これらの利点により、以下のようにシステムで並列処理を向上させることができます。

非同期 API の使用

Set<Future<?>> futures = new HashSet<Future<?>>();
futures.add(cache.putAsync("key1", "value1"));
futures.add(cache.putAsync("key2", "value2"));
futures.add(cache.putAsync("key3", "value3"));

たとえば、以下の行は実行時にスレッドをブロックしません。

  • futures.add(cache.putAsync(key1, value1));
  • futures.add(cache.putAsync(key2, value2));
  • futures.add(cache.putAsync(key3, value3));

これら 3 つの put 操作からのリモートコールは同時に実行されます。これは、分散モードで実行する場合に特に役に立ちます。

3.3. 非同期プロセス

Red Hat JBoss Data Grid の一般的な書き込み操作では、以下のプロセスがクリティカルパスで失敗し、リソースが最も必要なものから必要でないものに順序付けされます。

  • ネットワークコール
  • マーシャリング
  • キャッシュストアへの書き込み (オプション)
  • ロック

Red Hat JBoss Data Grid では、非同期メソッドを使用すると、クリティカルパスからネットワークコールとマーシャリングが削除されます。

3.4. 戻り値と非同期 API

Red Hat JBoss Data Grid で非同期 API が使用された場合、クライアントコードでは以前の値を問い合わせるために非同期操作が Future または CompletableFuture を返す必要があります。

非同期操作の結果を取得するには、次の操作を呼び出します。この操作は呼び出されたときにスレッドをブロックします。

Future.get()

第4章 バッチ化 API

4.1. バッチ化 API

Red Hat JBoss Data Grid クラスターがトランザクションの唯一の参加者である場合、バッチ化 API が使用されます。複数のシステムがトランザクションの参加者である場合は、トランザクションマネージャーを使用する Java トランザクション API (JTA) のトランザクションが使用されます。

注記

バッチ化 API は Red Hat JBoss Data Grid のライブラリーモードでのみ使用できます。

4.2. Java トランザクション API

Red Hat JBoss Data Grid では、Java トランザクション API (JTA) に対応するトランザクションの設定、使用、および参加がサポートされます。

JBoss Data Grid は各キャッシュ操作に対して以下を実行します。

  1. 最初に、現在スレッドに関連付けされているトランザクションを読み出します。
  2. XAResource が登録されていない場合は、トランザクションマネージャーに登録し、トランザクションがコミットまたはロールバックされたときに通知を受け取るようにします。

4.3. バッチ化および Java トランザクション API (JTA)

Red Hat JBoss Data Grid では、バッチ化機能により、JTA トランザクションがバックエンドで開始され、スコープ内のすべての呼び出しがそれに関連付けられます。このため、バッチ化機能は単純なトランザクションマネージャー実装をバックエンドで使用します。結果として、次の動作が行われます。

  1. 呼び出し中に取得されたロックは、トランザクションがコミットまたはロールバックするまで保持されます。
  2. すべての変更は、クラスター内のすべてのノード上にあるバッチでトランザクションコミットプロセスの一部としてレプリケートされます。複数の変更が単一のトランザクション内で確実に行われるようにするため、レプリケーショントラフィックがより少ない状態になり、パフォーマンスが向上します。
  3. 同期のレプリケーションまたはインバリデーションを使用する場合、レプリケーションまたはインバリデーションに失敗するとトランザクションはロールバックされます。
  4. キャッシュがトランザクションで、キャッシュローダーが存在する場合、キャッシュローダーはキャッシュのトランザクションに登録されません。そのため、トランザクションがインメモリー状態を適用し、変更をストアに適用できないと (部分的に)、キャッシュローダーレベルで不整合が発生する可能性があります。
  5. トランザクションに関連するすべての設定はバッチ化にも適用されます。

4.4. バッチ化 API の使用

4.4.1. バッチ化 API の設定

バッチ化 API を使用するには、以下の例のようにキャッシュ設定で呼び出しのバッチ化を有効にします。

Configuration c = new ConfigurationBuilder().transaction().transactionMode(TransactionMode.TRANSACTIONAL).invocationBatching().enable().build();

Red Hat JBoss Data Grid では、呼び出しバッチ化はデフォルトで無効になり、バッチ化は定義されたトランザクションマネージャーなしで使用できます。

4.4.2. バッチ化 API の使用

キャッシュがバッチ化を使用するよう設定された後に、キャッシュで次のように startBatch() および endBatch() を呼び出して、バッチ化を使用します。

Cache cache = cacheManager.getCache();

バッチを使用しない場合

cache.put("key", "value");

cache.put(key, value); 行が実行されると、値はすぐに置き換えられます。

バッチを使用する場合

cache.startBatch();
cache.put("k1", "value");
cache.put("k2", "value");
cache.put("k3", "value");
cache.endBatch(true);
cache.startBatch();
cache.put("k1", "value");
cache.put("k2", "value");
cache.put("k3", "value");
cache.endBatch(false);

cache.endBatch(true); が実行されると、バッチの開始後に行われたすべての変更が適用されます。

cache.endBatch(false); が実行されると、バッチで行われた変更は破棄されます。

第5章 グループ化 API

5.1. グループ化 API

グループ化 API は、エントリーのグループを指定のノードやグループのハッシュを使用して選択されたノードに移動できます。

5.2. グループ化 API の操作

通常、Red Hat JBoss Data Grid は特定のキーのハッシュを使用してエントリーの宛先ノードを決定します。しかし、グループ化 API を使用する場合、キーのハッシュではなくキーに関連するグループのハッシュを使用して宛先ノードを決定します。

各ノードはアルゴリズムを使用して各キーの所有者を決定します。これにより、ノード間のエントリーの場所に関するメタデータ (およびメタデータの更新) を渡す必要がなくなります。これは、以下の理由で有用です。

  • コストの高いノード全体のメタデータ更新を行わずに、すべてのノードは特定のキーを所有するノードを判断できます。
  • ノードの障害時に所有権情報をレプリケートする必要がないため、冗長性が改善されます。

グループ化 API を使用する場合、各ノードはエントリーの所有者を判断できる必要があります。そのため、グループを手作業で指定することはできず、以下のいずれかである必要があります。

  • エントリーへの組み込み。キークラスによって生成されたことを意味します。
  • エントリーに対して外部的。外部機能によって生成されたことを意味します。

5.3. グループ化 API のユースケース

この機能を使用すると、論理的に関連するデータを 1 つのノードで格納できます。たとえば、キャッシュにユーザー情報が含まれる場合、1 つの場所に存在するすべてのユーザーの情報を 1 つのノードで格納できます。

この方法の利点は、特定のデータ (論理的に関連する) が必要な場合に、分散エクゼキューター (Distributed Executor) のタスクがクラスターのすべてのノード全体ではなく関連するノードでのみ実行されるよう指示されることです。このように操作が指示されるため、パフォーマンスが最適化されます。

グループ化 API の例

Acme 社は世界中に 100 以上の支店を持つ家電販売会社です。支店によって多くの部門の社員が勤務する支店と1、2 部門の社員のみが勤務する支店があります。人事部所属の社員はバンコク、ロンドン、シカゴ、ニース、およびベネチアに勤務しています。

Acme 社は人事部用の社員記録をすべてキャッシュの単一のノード (ノード AB) に移動するため、Red Hat JBoss Data Grid のグループ化 API を使用します。そのため、人事部所属の社員が記録を読み出ししようとすると、DistributedExecutor はノード AB のみをチェックし、必要な社員記録を迅速かつ簡単に呼び出します。

説明どおりに 1 つのノードで関連するエントリーを格納した場合、クラスターのすべてのノードではなく 1 つのノード (またはノードの小さなサブセット) で情報を検索することで、データのアクセスを最適化し、無駄な時間やリソースの発生を防ぐことができます。

5.4. グループ化 API の設定

5.4.1. グループ化 API の設定

以下の手順にしたがってグループ化 API を設定します。

  1. 宣言的またはプログラム的メソッドを使用してグループを有効にします。
  2. 組み込みグループまたは非組み込みグループのいずれかを指定します。これらのグループのタイプに関する詳細は、組み込みグループの指定および非組み込みグループの指定を参照してください。
  3. 指定した grouper をすべて登録します。

5.4.2. グループの有効化

グループ化 API を設定するための最初のステップは、グループの有効化です。以下の例は、グループを有効にする方法を示しています。

Configuration c = new ConfigurationBuilder().clustering().hash().groups().enabled().build();

5.4.3. 埋め込みグループの指定

次の場合は、組み込みグループをグループ化 API で使用します。

  • キークラスの定義を変更できる場合 (変更不可能なライブラリーの一部でない)。
  • キークラスがキーバリューペアグループの判断を考慮しない場合。

関連するメソッドで @Group アノテーションを使用して組み込みグループを指定します。以下の例のように、グループは常に文字列 (String) である必要があります。

組み込みグループの指定例

class User {

   <!-- Additional configuration information here -->
   String office;
   <!-- Additional configuration information here -->

   public int hashCode() {
      // Defines the hash for the key, normally used to determine location
      <!-- Additional configuration information here -->
   }

   // Override the location by specifying a group, all keys in the same
   // group end up with the same owner
   @Group
   String getOffice() {
      return office;
   }

}

5.4.4. 組み込みグループの指定

次の場合は、非組み込みグループをグループ化 API で使用します。

  • キークラスの定義を変更できない場合 (変更不可能なライブラリーの一部である)。
  • キークラスがキーバリューペアグループの判断を考慮する場合。

組み込みグループは、Grouper インターフェースの実装を使用して指定されます。このインターフェースは computeGroup メソッドを使用してグループを返します。

組み込みグループを指定するとき、 Grouper インターフェースは算出した値を computeGroup に渡してインターセプターとして動作します。@Group アノテーションが使用される場合、このアノテーションを使用するグループが最初の Grouper に渡されます。そのため、組み込みグループを使用するとより優れた制御が提供されます。

非組み込みグループの指定例

以下の例は、パターンを使用してキーからグループを抽出するためにキークラスを使用する簡単な Grouper で構成されます。このような場合、キークラスで指定されたグループ情報は無視されます。

public class KXGrouper implements Grouper<String> {

   // A pattern that can extract from a "kX" (e.g. k1, k2) style key
   // The pattern requires a String key, of length 2, where the first character is
   // "k" and the second character is a digit. We take that digit, and perform
   // modular arithmetic on it to assign it to group "1" or group "2".

   private static Pattern kPattern = Pattern.compile("(^k)(\\d)$");

    public String computeGroup(String key, String group) {
        Matcher matcher = kPattern.matcher(key);
        if (matcher.matches()) {
            String g = Integer.parseInt(matcher.group(2)) % 2 + "";
            return g;
        } else
            return null;
    }

    public Class<String> getKeyType() {
        return String.class;
    }

}

5.4.5. Grouper の登録

作成後、各 grouper を使用するには登録する必要があります。

grouper のプログラムを使った登録

Configuration c = new ConfigurationBuilder().clustering().hash().groups().addGrouper(new KXGrouper()).enabled().build();

第6章 永続性 SPI

6.1. 永続性 SPI

Red Hat JBoss Data Grid では、永続性によって外部 (永続) ストレージエンジンを設定できます。これらのストレージエンジンは Red Hat JBoss Data Grid のデフォルトのインメモリーストレージを補完します。

永続外部ストレージには以下のような利点があります。

  • メモリーは揮発性で、キャッシュストアによってキャッシュの情報の存続期間を延長することが可能です。これにより、持続性が向上します。
  • 永続外部ストアをアプリケーションとカスタムストレージエンジン間のキャッシングレイヤーとして使用すると、ライトスルー機能が向上します。
  • エビクションとパッシベーションの組み合わせを使用すると、頻繁に必要な情報のみがメモリー内に保存され、他のデータは外部ストレージに保存されます。
注記

Red Hat JBoss Data Grid のライブラリーモードでのみプログラムを使用して永続性を設定できます。

6.2. 永続性 SPI の利点

永続性 SPI の Red Hat JBoss Data Grid 実装には以下の利点があります。

  • JSR-107 (http://jcp.org/en/jsr/detail?id=107) とのアライメント。JBoss Data Grid の CacheWriter および CacheLoader インターフェースはJSR-107 ライターおよびリーダーと似ています。そのため、JSR-107 とのアライメントにより、JCache 対応ベンダー全体でストアの移植性が向上します。
  • 簡易化されたトランザクション統合。JBoss Data Grid はロックを自動的に処理するため、実装はストアへの同時アクセスを調整する必要はありません。ロックモードによっては同じキーで同時書き込みされないことがあります。しかし、インプリメンターはストアの操作が複数のスレッドから開始され、実装コードが追加されることを想定します。
  • シリアライズの減少により CPU の使用率が低下します。新しい SPI は保存されたエントリーをシリアライズされた形式で公開します。リモートで送信するためにエントリーが永続ストレージから取得された場合、デシリアライズ (ストアからの読み取り時) した後に再度シリアライズ (送信の書き込み時) する必要はありません。この代わりにエントリーはストレージから取得されるとシリアライズされた形式で書き込まれます。

6.3. 永続性 SPI のプログラムを使用した設定

以下は、永続性 SPI を使用した単一ファイルストアのプログラムを使用した設定の例になります。

永続性 SPI を使用した単一ファイルストアの設定

ConfigurationBuilder builder = new ConfigurationBuilder();
    builder.persistence()
        .passivation(false)
        .addSingleFileStore()
            .preload(true)
            .shared(false)
            .fetchPersistentState(true)
            .ignoreModifications(false)
            .purgeOnStartup(false)
            .location(System.getProperty("java.io.tmpdir"))
            .async()
                .enabled(true)
                .threadPoolSize(5)
            .singleton()
                .enabled(true)
                .pushStateWhenCoordinator(true)
                .pushStateTimeout(20000);

6.4. 永続性の例

6.4.1. 永続性の例

以下は、プログラムを使用してキャッシュストア実装を設定する方法を示す例になります。これらのストアの比較と追加情報については Administration and Configuration Guide を参照してください。

6.4.2. プログラムを使用したキャッシュストアの設定

以下の例では、プログラムを使用してキャッシュストアを設定する方法を示します。

ConfigurationBuilder builder = new ConfigurationBuilder();
builder.persistence()
    .passivation(false)
    .addSingleFileStore()
        .shared(false)
        .preload(true)
        .fetchPersistentState(true)
        .purgeOnStartup(false)
        .location(System.getProperty("java.io.tmpdir"))
        .async()
           .enabled(true)
           .threadPoolSize(5)
        .singleton()
           .enabled(true)
           .pushStateWhenCoordinator(true)
           .pushStateTimeout(20000);
注記

この設定は単一ファイルキャッシュストア用です。location などの一部の属性は単一ファイルキャッシュストアに固有であり、他の種類のキャッシュストアには使用されません。

プログラムを使用したキャッシュストアの設定

  1. ConfigurationBuilder を使用して、新規の設定オブジェクトを作成します。
  2. passivation 要素は Red Hat JBoss Data Grid がストアと通信する方法に影響を与えます。パッシベーションは、インメモリーキャッシュからオブジェクトを削除し、システムやデータベースなどの 2 次データストアに書き込みます。2 次データストアがない場合、オブジェクトはインメモリーキャッシュから削除されるのみです。パッシベーションはデフォルトで false です。
  3. addSingleFileStore() 要素は、この設定用のキャッシュストアとして SingleFileStore を追加します。addStore メソッドを使用して追加できる、JDBC キャッシュストアなどの他のストアを作成することができます。
  4. shared パラメーターは、キャッシュストアが異なるキャッシュインスタンスによって共有されていることを示します。たとえば、クラスター内のすべてのインスタンスが、同じリモートの共有データベースと通信するために同じ JDBC 設定を使用する場合があります。shared は、デフォルトで false になります。true に設定すると、異なるキャッシュインスタンスによって重複データがキャッシュストアに書き込まれないようにすることができます。
  5. preload 要素はデフォルトでは false に設定されます。true に設定されると、キャッシュストアに保存されたデータは、キャッシュの起動時にメモリーにプリロードされます。これにより、キャッシュストアのデータが起動後すぐに利用できるようになり、データをレイジーにロードしたことによるキャッシュ操作の遅延を防ぐことができます。プリロードされたデータは、ノード上でローカルのみに保存され、プリロードされたデータのレプリケーションや分散は行われません。JBoss Data Grid は、エビクションのエントリーの最大設定数までの数をプリロードします。
  6. fetchPersistentState 要素は、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュストアでこのプロパティーが true に設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentState プロパティーはデフォルトでは false です。
  7. purgeOnStartup要素は、キャッシュストアの起動時にキャッシュストアをパージするかどうかを制御し、デフォルトでは false になります。
  8. location 設定要素は、ストアが書き込みできるディスクの場所を設定します。
  9. これらの属性は、それぞれのキャッシュストアに固有の内容を設定します。たとえば、location 属性は、SingleFileStore がデータが含まれるファイルを維持する場所を指します。他のストアには、さらに複雑な設定が必要な場合があります。
  10. singleton 要素を使用すると、クラスター内の 1 つのノードのみで変更を保存できます。このノードはコーディネーターと呼ばれます。コーディネーターは、インメモリー状態のキャッシュをディスクにプッシュします。この機能は、すべてのノードの enabled 属性を true に設定することによりアクティベートされます。shared パラメーターは、singleton を同時に有効にした状態で定義することはできません。enabled 属性はデフォルトでは false です。
  11. pushStateWhenCoordinator 要素はデフォルトでは true に設定されます。true の場合、このプロパティーにより、コーディネーターになったノードがインメモリー状態を基礎となるキャッシュストアに転送します。このパラメーターは、コーディネーターがクラッシュし、新規のコーディネーターが選択される場合に役に立ちます。

6.4.3. LevelDB キャッシュストアのプログラムを使用した設定

以下は、LevelDB キャッシュストアの、プログラムを使用した設定例です。

Configuration cacheConfig = new ConfigurationBuilder().persistence()
                .addStore(LevelDBStoreConfigurationBuilder.class)
                .location("/tmp/leveldb/data")
                .expiredLocation("/tmp/leveldb/expired").build();

LevelDB キャッシュストアのプログラムを使用した設定

  1. ConfigurationBuilder を使用して、新規の設定オブジェクトを作成します。
  2. LevelDBCacheStoreConfigurationBuilder クラスを使用してストアを追加し、その設定を構築します。
  3. LevelDB キャッシュストアのロケーションパスを設定します。指定したパスは、主なキャッシュストアデータを保存します。ディレクトリーがない場合は自動的に作成されます。
  4. LevelDB ストアの expiredLocation パラメーターを使用して、期限切れデータの場所を指定します。指定されたパスは、パージされる前に期限切れデータを保存します。ディレクトリーがない場合は自動的に作成されます。

6.4.4. JdbcBinaryStore のプログラムを用いた設定

JdbcBinaryStore は、同じテーブル行/blob の同じハッシュ値 (キー上の hashCode メソッド) ですべてのキーを格納し、すべてのキータイプをサポートします。

重要

バイナリー JDBC ストアは JBoss Data Grid 7.1 で非推奨になったため、実稼働での使用は推奨されません。代わりに文字列ベースのストアを使用することが推奨されます。

以下は、JdbcBinaryStore の設定例になります。

ConfigurationBuilder builder = new ConfigurationBuilder();
  builder.persistence()
     .addStore(JdbcBinaryStoreConfigurationBuilder.class)
     .fetchPersistentState(false)
     .ignoreModifications(false)
     .purgeOnStartup(false)
     .table()
        .dropOnExit(true)
        .createOnStart(true)
        .tableNamePrefix("ISPN_BUCKET_TABLE")
        .idColumnName("ID_COLUMN").idColumnType("VARCHAR(255)")
        .dataColumnName("DATA_COLUMN").dataColumnType("BINARY")
        .timestampColumnName("TIMESTAMP_COLUMN").timestampColumnType("BIGINT")
     .connectionPool()
        .connectionUrl("jdbc:h2:mem:infinispan_binary_based;DB_CLOSE_DELAY=-1")
        .username("sa")
        .driverClass("org.h2.Driver");

JdbcBinaryStore のプログラムを使用した設定 (ライブラリーモード)

  1. ConfigurationBuilder を使用して、新規の設定オブジェクトを作成します。
  2. JdbcBinaryStore 設定ビルダーを追加して、このストアに関連する固有の設定を構築します。
  3. fetchPersistentState 要素は、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュローダーでこのプロパティーが true に設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentState プロパティーはデフォルトでは false です。
  4. ignoreModifications 要素は、書き込み操作を共有キャッシュローダーではなく、ローカルファイルキャッシュローダーに許可することで、書き込みメソッドを特定のキャッシュローダーにプッシュするかどうかを決定します。場合によっては、一時的なアプリケーションデータが、インメモリーキャッシュと同じサーバー上のファイルベースのキャッシュローダーにのみ存在する必要があります。たとえば、これはネットワーク内のすべてのサーバーによって使用される追加の JDBC ベースのキャッシュローダーで適用されます。ignoreModifications はデフォルトでは false になります。
  5. purgeOnStartup 要素は、初回起動時にキャッシュがパージされるかどうかを指定します。
  6. テーブルを以下のように設定します。

    1. dropOnExit は、キャッシュストアが停止している際にテーブルを破棄するかどうかを決定します。これは、デフォルトでは false に設定されます。
    2. createOnStart は、現在テーブルが存在しない場合にキャッシュストアの起動時にテーブルを作成します。このメソッドはデフォルトでは true です。
    3. tableNamePrefix は、データが保存されるテーブルの名前に接頭辞を設定します。
    4. idColumnName プロパティーは、キャッシュキーまたはバケット ID が保存される列を定義します。
    5. dataColumnName プロパティーは、キャッシュエントリーまたはバケットが保存される列を指定します。
    6. timestampColumnName 要素は、キャッシュエントリーまたはバケットのタイムスタンプが保存される列を指定します。
  7. The connectionPool 要素は、次のパラメーターを使用して JDBC ドライバーの接続プールを指定します。

    1. connectionUrl パラメーターは、JDBC ドライバー固有の接続 URL を指定します。
    2. username パラメーターには、connectionUrl 経由で接続するために使用されるユーザー名が含まれます。
    3. driverClass パラメーターは、データベースへの接続に使用されるドライバーのクラス名を指定します。

6.4.5. JdbcStringBasedStore のプログラムを使用した設定

JdbcStringBasedStore は複数のエントリーを各行にグループ化せずに、各エントリーをテーブルの独自の行に格納するため、同時に負荷がかかる状態でスループットが増加します。

以下は、JdbcStringBasedStore の設定例になります。

ConfigurationBuilder builder = new ConfigurationBuilder();
  builder.persistence().addStore(JdbcStringBasedStoreConfigurationBuilder.class)
     .fetchPersistentState(false)
     .ignoreModifications(false)
     .purgeOnStartup(false)
     .table()
        .dropOnExit(true)
        .createOnStart(true)
        .tableNamePrefix("ISPN_STRING_TABLE")
        .idColumnName("ID_COLUMN").idColumnType("VARCHAR(255)")
        .dataColumnName("DATA_COLUMN").dataColumnType("BINARY")
        .timestampColumnName("TIMESTAMP_COLUMN").timestampColumnType("BIGINT")
     .dataSource()
        .jndiUrl("java:jboss/datasources/JdbcDS");

JdbcStringBasedStore のプログラムを使用した設定

  1. ConfigurationBuilder を使用して、新規の設定オブジェクトを作成します。
  2. JdbcStringBasedStore 設定ビルダーを追加して、このストアに関連する固有の設定を構築します。
  3. fetchPersistentState パラメーターは、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュローダーでこのプロパティーが true に設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentState プロパティーはデフォルトでは false です。
  4. ignoreModifications パラメーターは、書き込み操作を共有キャッシュローダーではなく、ローカルファイルキャッシュローダーに許可することで、書き込みメソッドを特定のキャッシュローダーにプッシュするかどうかを決定します。場合によっては、一時的なアプリケーションデータが、インメモリーキャッシュと同じサーバー上のファイルベースのキャッシュローダーにのみ存在する必要があります。たとえば、これはネットワーク内のすべてのサーバーによって使用される追加の JDBC ベースのキャッシュローダーで適用されます。ignoreModifications はデフォルトでは false になります。
  5. purgeOnStartup パラメーターは、初回起動時にキャッシュがパージされるかどうかを指定します。
  6. テーブルの設定

    1. dropOnExit は、キャッシュストアが停止している際にテーブルを破棄するかどうかを決定します。これは、デフォルトでは false に設定されます。
    2. createOnStart は、現在テーブルが存在しない場合にキャッシュストアの起動時にテーブルを作成します。このメソッドはデフォルトでは true です。
    3. tableNamePrefix は、データが保存されるテーブルの名前に接頭辞を設定します。
    4. idColumnName プロパティーは、キャッシュキーまたはバケット ID が保存される列を定義します。
    5. dataColumnName プロパティーは、キャッシュエントリーまたはバケットが保存される列を指定します。
    6. timestampColumnName 要素は、キャッシュエントリーまたはバケットのタイムスタンプが保存される列を指定します。
  7. dataSource 要素は、以下のパラメーターを使用してデータソースを指定します。

    • jndiUrl は、既存の JDBC への JNDI URL を指定します。
注記

JdbcStringBasedStore 使用時に IO 例外である Unsupported protocol version 48 エラーが発生した場合、データ列タイプが適切な BLOBVARBINARY ではなく、VARCHARCLOB などに設定されていることを示します。 JdbcStringBasedStore の値はどのデータタイプでもよく、キーが文字列であることのみ必要となります。そのため、バイナリー列に保存することができます。

6.4.6. JdbcMixedStore のプログラムを使用した設定

JdbcMixedStore は、キーのタイプを基にキーを JdbcBinaryStore または JdbcStringBasedStore に委譲するハイブリッド実装です。

重要

混合 JDBC ストアは JBoss Data Grid 7.1 で非推奨になったため、実稼働での使用は推奨されません。代わりに文字列ベースのストアを使用することが推奨されます。

以下は、JdbcMixedStore の設定例になります。

ConfigurationBuilder builder = new ConfigurationBuilder();
  builder.persistence().addStore(JdbcMixedStoreConfigurationBuilder.class)
     .fetchPersistentState(false)
     .ignoreModifications(false)
     .purgeOnStartup(false)
     .stringTable()
        .dropOnExit(true)
        .createOnStart(true)
        .tableNamePrefix("ISPN_MIXED_STR_TABLE")
        .idColumnName("ID_COLUMN").idColumnType("VARCHAR(255)")
        .dataColumnName("DATA_COLUMN").dataColumnType("BINARY")
        .timestampColumnName("TIMESTAMP_COLUMN").timestampColumnType("BIGINT")
     .binaryTable()
        .dropOnExit(true)
        .createOnStart(true)
        .tableNamePrefix("ISPN_MIXED_BINARY_TABLE")
        .idColumnName("ID_COLUMN").idColumnType("VARCHAR(255)")
        .dataColumnName("DATA_COLUMN").dataColumnType("BINARY")
        .timestampColumnName("TIMESTAMP_COLUMN").timestampColumnType("BIGINT")
     .connectionPool()
        .connectionUrl("jdbc:h2:mem:infinispan_binary_based;DB_CLOSE_DELAY=-1")
        .username("sa")
        .driverClass("org.h2.Driver");

JdbcMixedStore のプログラムを使用した設定

  1. ConfigurationBuilder を使用して、新規の設定オブジェクトを作成します。
  2. JdbcMixedStore 設定ビルダーを追加して、このストアに関連する固有の設定を構築します。
  3. fetchPersistentState パラメーターは、キャッシュの永続状態をフェッチするかどうかを決定し、クラスターに参加する際にこれをローカルキャッシュストアに適用します。キャッシュストアが共有される場合、キャッシュが同じキャッシュストアにアクセスするためフェッチ永続状態は無視されます。複数のキャッシュローダーでこのプロパティーが true に設定された場合にキャッシュサービスを起動すると、設定の例外が発生します。fetchPersistentState プロパティーはデフォルトでは false です。
  4. ignoreModifications パラメーターは、書き込み操作を共有キャッシュローダーではなく、ローカルファイルキャッシュローダーに許可することで、書き込みメソッドを特定のキャッシュローダーにプッシュするかどうかを決定します。場合によっては、一時的なアプリケーションデータが、インメモリーキャッシュと同じサーバー上のファイルベースのキャッシュローダーにのみ存在する必要があります。たとえば、これはネットワーク内のすべてのサーバーによって使用される追加の JDBC ベースのキャッシュローダーで適用されます。ignoreModifications はデフォルトでは false になります。
  5. purgeOnStartup パラメーターは、初回起動時にキャッシュがパージされるかどうかを指定します。
  6. テーブルを以下のように設定します。

    1. dropOnExit は、キャッシュストアが停止している際にテーブルを破棄するかどうかを決定します。これは、デフォルトでは false に設定されます。
    2. createOnStart は、現在テーブルが存在しない場合にキャッシュストアの起動時にテーブルを作成します。このメソッドはデフォルトでは true です。
    3. tableNamePrefix は、データが保存されるテーブルの名前に接頭辞を設定します。
    4. idColumnName プロパティーは、キャッシュキーまたはバケット ID が保存される列を定義します。
    5. dataColumnName プロパティーは、キャッシュエントリーまたはバケットが保存される列を指定します。
    6. timestampColumnName 要素は、キャッシュエントリーまたはバケットのタイムスタンプが保存される列を指定します。
  7. The connectionPool 要素は、次のパラメーターを使用して JDBC ドライバーの接続プールを指定します。

    1. connectionUrl パラメーターは、JDBC ドライバー固有の接続 URL を指定します。
    2. username パラメーターには、connectionUrl 経由で接続するために使用されるユーザー名が含まれます。
    3. driverClass パラメーターは、データベースへの接続に使用されるドライバーのクラス名を指定します。

6.4.7. JPA キャッシュストアのプログラムを使用した設定例

Red Hat JBoss Data Grid で JPA キャッシュストアをプログラムを使用して設定するには、以下を使用します。

Configuration cacheConfig = new ConfigurationBuilder().persistence()
        .addStore(JpaStoreConfigurationBuilder.class)
        .persistenceUnitName("org.infinispan.loaders.jpa.configurationTest")
        .entityClass(User.class)
    .build();

このコード例で使用されるパラメーターは以下のとおりです。

  • persistenceUnitName パラメーターは、JPA エンティティークラスが含まれる設定ファイル (persistence.xml ) の JPA キャッシュストアの名前を指定します。
  • entityClass パラメーターは、このキャッシュに格納された JPA エンティティークラスを指定します。設定ごとに 1 つのクラスのみを指定できます。

6.4.8. Cassandra キャッシュストアのプログラムを使用した設定例

Cassandra キャッシュストアは、Red Hat JBoss Data Grid のコアライブラリーの一部ではなく、クラスパスに追加する必要があります。Maven プロジェクトでは、以下を pom.xml に追加するとクラスパスに追加できます。

<dependency>
    <groupId>org.infinispan</groupId>
    <artifactId>infinispan-cachestore-cassandra</artifactId>
    <version>${version.infinispan}</version>
</dependency>

以下の設定スニペットは、プログラムを使用して Cassandra キャッシュストアを定義する方法の例を示しています。

Configuration cacheConfig = new ConfigurationBuilder()
    .persistence()
    .addStore(CassandraStoreConfigurationBuilder.class)
    .addServer()
        .host("127.0.0.1")
        .port(9042)
    .addServer()
        .host("127.0.0.1")
        .port(9041)
    .autoCreateKeyspace(true)
    .keyspace("TestKeyspace")
    .entryTable("TestEntryTable")
    .consistencyLevel(ConsistencyLevel.LOCAL_ONE)
    .serialConsistencyLevel(ConsistencyLevel.SERIAL)
    .connectionPool()
        .heartbeatIntervalSeconds(30)
        .idleTimeoutSeconds(120)
        .poolTimeoutMillis(5)
    .build();

第7章 ConfigurationBuilder API

7.1. ConfigurationBuilder API

ConfigurationBuilder API は Red Hat JBoss Data Grid のプログラミング可能な設定 API です。

ConfigurationBuilder API は、以下のことが行えるよう設計されています。

  • コーディングプロセスをより効率的にするための設定オプションのチェーンコーディング
  • 設定の可読性の向上

Red Hat JBoss Data Grid では、ConfigurationBuilder API は、CacheLoaders を有効にし、グローバルおよびキャッシュレベルの操作を設定するためにも使用されます。

注記

プログラムを使用した設定は、Red Hat JBoss Data Grid のライブラリーモードでのみ実行できます。

7.2. ConfigurationBuilder API の使用

7.2.1. CacheManager およびレプリケートされたキャッシュのプログラムによる作成

Red Hat JBoss Data Grid のプログラムによる設定は、ほぼ ConfigurationBuilder API および CacheManager のみが関係します。以下はプログラムによる CacheManager 設定の例になります。

CacheManager のプログラムを使用した設定

EmbeddedCacheManager manager = new DefaultCacheManager("my-config-file.xml");
Cache defaultCache = manager.getCache();
Configuration c = new ConfigurationBuilder().clustering().cacheMode(CacheMode.REPL_SYNC)
.build();

String newCacheName = "repl";
manager.defineConfiguration(newCacheName, c);
Cache<String, String> cache = manager.getCache(newCacheName);

  1. XML ファイルで初めに CacheManager を作成します。必要な場合は、ユースケースの要件を満たす仕様に基づいて実行時にこの CacheManager をプログラミングできます。
  2. プログラムを使用して、同期的にレプリケートされたキャッシュを新規作成します。

    • ConfigurationBuilder ヘルパーオブジェクトを使用して新しい設定オブジェクトインスタンスを作成します。

      設定の最初の行で、ConfigurationBuilder を使用して新しいキャッシュ設定オブジェクト (c) が作成されます。設定 c には、キャッシュモードを除くすべてのキャッシュ設定オプションのデフォルト値が割り当てられ、この値は上書きされ、同期レプリケーション (REPL_SYNC) に設定されます。

    • マネージャーで設定を定義または登録します。

      設定の 3 行目で、キャッシュマネージャーは名前付きキャッシュ設定を定義するために使用されます。この名前付きキャッシュ設定は repl と呼ばれ、設定は最初の行のキャッシュ設定 c に提供された設定に基づきます。

    • 設定の 4 行目で、キャッシュマネージャーで保持された repl の一意のインスタンスに対する参照を取得するために、キャッシュマネージャーが使用されます。このキャッシュインスタンスはデータを格納および取得する操作を実行するために使用できます。

7.2.2. デフォルトの名前付きキャッシュを使用したカスタマイズされたキャッシュの作成

デフォルトキャッシュ設定 (またはカスタマイズされた設定) は新しいキャッシュを作成する土台として使用できます。

例として、infinispan-config-file.xml で、レプリケートされたキャッシュの設定がデフォルト値として指定され、ライフスパン値がカスタマイズされた分散キャッシュが必要であるとします。必要な分散キャッシュは infinispan-config-file.xml ファイルで指定されたデフォルトキャッシュのすべての内容 (言及された内容を除く) を保持する必要があります。

デフォルトキャッシュのカスタマイズ

String newCacheName = "newCache";
EmbeddedCacheManager manager = new DefaultCacheManager("infinispan-config-file.xml");
Configuration dcc = manager.getDefaultCacheConfiguration();
Configuration c = new ConfigurationBuilder().read(dcc).clustering()
	.cacheMode(CacheMode.DIST_SYNC).l1().lifespan(60000L).enable()
	.build();
manager.defineConfiguration(newCacheName, c);
Cache<String, String> cache = manager.getCache(newCacheName);

  1. デフォルトの Configuration オブジェクトのインスタンスを読み取り、デフォルトの設定を取得します。
  2. ConfigurationBuilder を使用して、新しい設定オブジェクトでキャッシュモードと L1 キャッシュライフスパンを構築および変更します。
  3. キャッシュマネージャーでキャッシュ設定を登録または定義します。
  4. 指定された設定が含まれる newCache への参照を取得します。

7.2.3. デフォルトでない名前付きキャッシュを使用したカスタマイズされたキャッシュの作成

デフォルトでない名前付きキャッシュを使用して新しいカスタマイズされたキャッシュを作成する必要があることがあります。この手順は、デフォルトの名前付きキャッシュを使用する場合の手順に似ています。

違いは、デフォルトのキャッシュの代わりに replicatedCache という名前のキャッシュを取得することです。

デフォルトでない名前付きキャッシュを使用したカスタマイズされたキャッシュの作成

String newCacheName = "newCache";
EmbeddedCacheManager manager = new DefaultCacheManager("infinispan-config-file.xml");
Configuration rc = manager.getCacheConfiguration("replicatedCache");
Configuration c = new ConfigurationBuilder().read(rc).clustering()
	.cacheMode(CacheMode.DIST_SYNC).l1().lifespan(60000L).enable()
	.build();
manager.defineConfiguration(newCacheName, c);
Cache<String, String> cache = manager.getCache(newCacheName);

  1. replicatedCache を読み取り、デフォルト設定を取得します。
  2. ConfigurationBuilder を使用して、新しい設定オブジェクトで必要な設定を構築および変更します。
  3. キャッシュマネージャーでキャッシュ設定を登録または定義します。
  4. 指定された設定が含まれる newCache への参照を取得します。

7.2.4. Configuration Builder を使用したプログラムによるキャッシュの作成

デフォルトキャッシュ値で xml ファイルを使用して新しいキャッシュを作成する代わりに、ConfigurationBuilder API を使用して XML ファイルなしで新しいキャッシュを作成します。ConfigurationBuilder API は設定オプションに対してチェーンされたコードを作成するときに使いやすさを提供することを目的としています。

以下の新しい設定は、グローバルおよびキャッシュレベル設定に対して有効です。GlobalConfiguration オブジェクトは、GlobalConfigurationBuilder を使用して構築され、Configuration オブジェクトは ConfigurationBuilder を使用して構築されます。

7.2.5. グローバル設定の例

7.2.5.1. トランスポート層のグローバル設定

通常使用される設定オプションは、トランスポート層を設定します。これにより、どのようにノードが他のノードを検出するかが Red Hat JBoss Data Grid に通知されます。

トランスポート層の設定

GlobalConfiguration globalConfig = new GlobalConfigurationBuilder()
  .transport().defaultTransport()
  .build();

7.2.5.2. キャッシュマネージャー名のグローバル設定

以下のサンプル設定では、グローバル JMX 統計レベルからオプションを使用してキャッシュマネージャーの名前を設定できます。この名前は、特定のキャッシュマネージャーと同じシステムの他のキャッシュマネージャーを区別します。

キャッシュマネージャー名の設定

GlobalConfiguration globalConfig = new GlobalConfigurationBuilder()
  .globalJmxStatistics()
    .cacheManagerName("SalesCacheManager")
    .mBeanServerLookup(new JBossMBeanServerLookup())
    .enable()
  .build();

7.2.5.3. JGroups のグローバル設定

Red Hat JBoss Data Grid がクラスターモードで動作するには、適切な JGroups 設定が必要になります。以下の設定例は、事前定義された JGroups 設定ファイルを設定に渡す方法を示しています。

JGroups のプログラムを使用した設定

GlobalConfiguration gc = new GlobalConfigurationBuilder()
    .transport()
        .defaultTransport()
    .addProperty("configurationFile","jgroups.xml")
    .build();

Red Hat JBoss Data Grid は最初にクラスパスにある jgroups.xml を検索します。クラスパスでインスタンスが見つからない場合は、絶対パス名を検索します。

7.2.6. キャッシュレベル設定の例

7.2.6.1. クラスターモードのキャッシュレベル設定

以下の設定により、グローバルでないキャッシュレベルでのキャッシュのクラスターモードなどのオプションを使用できます。

キャッシュレベルでのクラスターモードの設定

Configuration config = new ConfigurationBuilder()
  .clustering()
    .cacheMode(CacheMode.DIST_SYNC)
    .sync()
    .l1().lifespan(25000L).enable()
    .hash().numOwners(3)
  .build();

7.2.6.2. キャッシュレベルのエビクションおよびエクスパレーションの設定

以下の設定を使用して、キャッシュレベルでキャッシュのエクスパレーションまたはエビクションオプションを設定します。

エクスパレーションおよびエビクションのキャッシュレベルでの設定

Configuration config = new ConfigurationBuilder()
           .eviction()
             .size(20000).strategy(EvictionStrategy.LIRS).expiration()
             .wakeUpInterval(5000L)
             .maxIdle(120000L)
           .build();

7.2.6.3. JTA トランザクションのキャッシュレベルの設定

JTA トランザクション設定のキャッシュと対話するには、トランザクション層を設定し、任意でロック設定をカスタマイズします。トランザクションキャッシュでは、トランザクションリカバリーを有効にして未完了のトランザクションに対応することが推奨されます。さらに、JMX 管理および統計収集も有効にすることが推奨されます。

JTA トランザクションのキャッシュレベルでの設定

Configuration config = new ConfigurationBuilder()
  .locking()
    .concurrencyLevel(10000).isolationLevel(IsolationLevel.REPEATABLE_READ)
    .lockAcquisitionTimeout(12000L).useLockStriping(false).writeSkewCheck(true)
  .transaction()
    .transactionManagerLookup(new GenericTransactionManagerLookup())
  .recovery().enable()
  .jmxStatistics().enable()
  .build();

7.2.6.4. チェーンされた永続ストアを使用したキャッシュレベルでの設定

以下の設定は、キャッシュレベルで 1 つまたは複数のチェーンされた永続ストアを設定するために使用できます。

チェーンされた永続ストアのキャッシュレベルでの設定

Configuration conf = new ConfigurationBuilder()
          .persistence()
            .passivation(false)
            .addSingleFileStore()
               .location("/tmp/firstDir")
          .persistence()
            .passivation(false)
            .addSingleFileStore()
               .location("/tmp/secondDir")
          .build();

7.2.6.5. 高度なエクスターナライザーのキャッシュレベルでの設定

高度なエクスターナライザーに対するキャッシュレベル設定などの高度なオプションは、以下のようにプログラムを使用して設定することもできます。

高度なエクスターナライザーのキャッシュレベルでの設定

GlobalConfiguration globalConfig = new GlobalConfigurationBuilder()
  .serialization()
    .addAdvancedExternalizer(new PersonExternalizer())
    .addAdvancedExternalizer(999, new AddressExternalizer())
  .build();

7.2.6.6. パーティション処理のキャッシュレベルでの設定 (ライブラリーノード)

クラスターがデグレード状態にならないよう保護するために、パーティション処理を有効にすることができます。例を以下に示します。

ConfigurationBuilder dcc = new ConfigurationBuilder();
dcc.clustering().partitionHandling().enabled(true);

状況の例を含む、パーティション処理に関する情報は、Administration and Configuration Guide を参照してください。

注記

クライアントサーバーモードでパーティション処理を設定するには、Administration and Configuration Guide を参照して宣言的に有効にする必要があります。

第8章 Externalizable API

8.1. Externalizable API

Externalizer は以下を実行できるクラスです。

  • 該当するオブジェクトタイプをバイトアレイにマーシャリングします。
  • バイトアレイの内容のオブジェクトタイプのインスタンスに対するマーシャリングを解除します。

エクスターナライザーは Red Hat JBoss Data Grid によって使用され、ユーザーはオブジェクトタイプをどのようにシリアライズするかを指定できます。Red Hat JBoss Data Grid で使用されるマーシャリングインフラストラクチャーは、JBoss Marshalling に基づいて構築され、効率的なペイロード配信を提供し、ストリームのキャッシュを可能にします。ストリームキャッシングを使用すると、データに複数回アクセスできますが、通常はストリームは 1 度だけ読み取ることができます。

Externalizable インターフェースはシリアライゼーションを使用および拡張します。このインターフェースは、Red Hat JBoss Data Grid でシリアライズとデシリアライズを制御するために使用されます。

8.2. エクスターナライザーのカスタマイズ

Red Hat JBoss Data Grid のデフォルト設定では、分散またはレプリケートされたキャッシュで使用されるすべてのオブジェクトはシリアライズ可能である必要があります。デフォルトの Java シリアル化メカニズムでは、ネットワークやパフォーマンスの効率が悪化する可能性があります。また、シリアライズのバージョン管理や後方互換性などに懸念があります。

スループットやパフォーマンスを向上し、特定のオブジェクトの互換性を強制するには、カスタマイズされたエクスターナライザーを使用します。Red Hat JBoss Data Grid のカスタマイズされたエクスターナライザーは、以下の 2 つ方法のいずれかで使用できます。

  • Externalizable インターフェースを使用します。詳細は Externalizable API を参照してください。
  • 高度なエクスターナライザーを使用します。

8.3. @SerializeWith を使用したマーシャリングのオブジェクトのアノテーション付け

オブジェクトをマーシャルするには、マーシャルまたはアンマーシャルする必要があるタイプにエクスターナライザー実装を提供し、マーシャルされたタイプクラスに @SerializeWith アノテーションを付けて使用するエクスターナライザークラスを示します。

@SerializeWith アノテーションの使用

import org.infinispan.commons.marshall.Externalizer;
import org.infinispan.commons.marshall.SerializeWith;

@SerializeWith(Person.PersonExternalizer.class)
public class Person {

   final String name;
   final int age;

   public Person(String name, int age) {
      this.name = name;
      this.age = age;
   }

   public static class PersonExternalizer implements Externalizer<Person> {
      @Override
      public void writeObject(ObjectOutput output, Person person)
            throws IOException {
         output.writeObject(person.name);
         output.writeInt(person.age);
      }

      @Override
      public Person readObject(ObjectInput input)
            throws IOException, ClassNotFoundException {
         return new Person((String) input.readObject(), input.readInt());
      }
   }
}

この例では、 @SerializeWith アノテーションによってオブジェクトがマーシャル可能であると定義されています。よって、JBoss Marshalling は渡されたエクスターナライザークラスを使用してオブジェクトをマーシャルします。

この方法はエクスターナライザーを簡単に定義できますが、以下の欠点があります。

  • このやり方で生成されたペイロードサイズは最も効率的ではありません。これは、モデルの制約の一部 (同じクラスの異なるバージョンへのサポートなど) や、エクスターナライザークラスをマーシャルする必要性が原因です。
  • このモデルでは、マーシャルされるクラスに @SerializeWith アノテーションを付ける必要があります。しかし、ソースコードが利用できないクラスにエクスターナライザーを提供する必要がある可能性があり、他の制約では変更できません。
  • このモデルで使用されるアノテーションは、マーシャリング層などの下位レベルの詳細を抽象化しようとするフレームワーク開発者やサービスプロバイダーが制限されることがあります。

このような欠点に影響されるユーザーは高度なエクスターナライザーを使用できます。

注記

エクスターナライザー実装のコーディングを容易にし、よりタイプセーフにするには、タイプ <t> をマーシャルまたはアンマーシャルされたオブジェクトのタイプとして定義します。

8.4. 高度なエクスターナライザーの使用

8.4.1. 高度なエクスターナライザーの使用

カスタマイズされた高度なエクスターナライザーを使用すると、Red Hat JBoss Data Grid のパフォーマンスを最適化できます。

  1. readObject() および writeObject() メソッドを定義および実装します。
  2. エクスターナライザーをマーシャラークラスとリンクします。
  3. 高度なエクスターナライザーを登録します。

8.4.2. メソッドの実装

高度なエクスターナライザーを使用するには、readObject() および writeObject() メソッドを定義および実装します。定義の例は以下のとおりです。

メソッドの定義および実装

import org.infinispan.commons.marshall.AdvancedExternalizer;

public class Person {

   final String name;
   final int age;

   public Person(String name, int age) {
      this.name = name;
      this.age = age;
   }

   public static class PersonExternalizer implements AdvancedExternalizer<Person> {
      @Override
      public void writeObject(ObjectOutput output, Person person)
            throws IOException {
         output.writeObject(person.name);
         output.writeInt(person.age);
      }

      @Override
      public Person readObject(ObjectInput input)
            throws IOException, ClassNotFoundException {
         return new Person((String) input.readObject(), input.readInt());
      }

      @Override
      public Set<Class<? extends Person>> getTypeClasses() {
         return Util.<Class<? extends Person>>asSet(Person.class);
      }

      @Override
      public Integer getId() {
         return 2345;
      }
   }
}

注記

このメソッドにはアノテーションが付けられたユーザークラスは必要ありません。そのため、このメソッドはソースコードの使用や変更が不可能なクラスに有効です。

8.4.4. 高度なエクスターナライザーの登録 (プログラムを使用)

高度なエクスターナライザーの設定後、Red Hat JBoss Data Grid で使用するために登録します。以下のようにプログラムを使用して登録します。

高度なエクスターナライザーのプログラムを使用した登録

GlobalConfigurationBuilder builder = ...
builder.serialization()
   .addAdvancedExternalizer(new Person.PersonExternalizer());

最初の行に GlobalConfigurationBuilder の必要な情報を入力します。

8.4.5. 複数のエクスターナライザーの登録

GlobalConfiguration.addExternalizer()varargs を許可するため、高度なエクスターナライザーを複数登録することもできます。新しいエクスターナライザーを登録する前に、@Marshalls アノテーションを使用して ID が定義されていることを確認します。

エクスターナライザーの複数登録

builder.serialization()
   .addAdvancedExternalizer(new Person.PersonExternalizer(),
                            new Address.AddressExternalizer());

8.5. エクスターナライザー ID 値のカスタマイズ

8.5.1. エクスターナライザー ID 値のカスタマイズ

高度なエクスターナライザーには必要な場合にカスタム ID を割り当てることができます。一部の ID 範囲は他のモジュールやフレームワーク用に予約されるため、その使用を避ける必要があります。

表8.1 エクスターナライザーの予約される ID 範囲

ID 範囲対象

1000-1099

Infinispan Tree モジュール

1100-1199

Red Hat JBoss Data Grid Server モジュール

1200-1299

Hibernate Infinispan 2 次キャッシュ

1300-1399

JBoss Data Grid Lucene Directory

1400-1499

Hibernate OGM

1500-1599

Hibernate Search

1600-1699

Infinispan Query モジュール

1700-1799

Infinispan Remote Query モジュール

1800-1849

JBoss Data Grid Scripting モジュール

1850-1899

JBoss Data Grid Server Event Logger モジュール

1900-1999

JBoss Data Grid リモートストア

8.5.2. エクスターナライザー ID のカスタマイズ (プログラムを使用)

以下の設定を使用して、プログラムを使用して特定の ID をエクスターナライザーに割り当てます。

エクスターナライザーへの ID の割り当て

GlobalConfiguration globalConfiguration = new GlobalConfigurationBuilder()
            .serialization()
               .addAdvancedExternalizer($ID, new Person.PersonExternalizer())
            .build();

$ID を指定する ID に置き換えます。

第9章 通知/リスナー API

9.1. 通知/リスナー API

Red Hat JBoss Data Grid は、発生時にイベントの通知を行うリスナー API を提供します。クライアントは、関係する通知に対してリスナー API の登録を選択できます。 この API はアノテーション駆動型で、キャッシュレベルのイベントとキャッシュマネージャーレベルのイベント上で操作します。

9.2. リスナーの例

次の例は、新しいエントリーがキャッシュに追加されるたびに情報を出力する Red Hat JBoss Data Grid のリスナーを定義します。

リスナーの設定

@Listener
public class PrintWhenAdded {
  @CacheEntryCreated
  public void print(CacheEntryCreatedEvent event) {
    System.out.println("New entry " + event.getKey() + " created in the cache");
  }
}

9.3. リスナー通知

9.3.1. リスナー通知

キャッシュイベントが発生するたびに通知がリスナーに送信されます。リスナーは、@Listener アノテーションが付いた簡単な POJO です。Listenable は、実装がアタッチするリスナーを持つことを意味するインターフェースです。各リスナーは Listenable で定義されたメソッドを使用して登録されます。

キャッシュレベルまたはキャッシュマネージャーレベルの通知を受信するため、リスナーはキャッシュおよびキャッシュマネージャーの両方にアタッチすることが可能です。

9.3.2. キャッシュレベルの通知

Red Hat JBoss Data Grid では、キャッシュレベルのイベントはキャッシュごとに発生します。キャッシュレベルイベントの例には、関係するキャッシュで登録されたリスナーへの通知を引き起こすエントリーの追加、削除、および変更などが含まれます。

9.3.3. キャッシュマネージャーレベルの通知

Red Hat JBoss Data Grid のキャッシュマネージャーレベルで発生するイベントの例は次のとおりです。

  • キャッシュの開始および停止
  • クラスターに参加するノードまたはクラスターから離脱するノード

キャッシュマネージャーレベルのイベントはグローバルに位置し、クラスター全体で使用されますが、単一のキャッシュマネージャーによって作成されたキャッシュ内のイベントに制限されます。

最初の 2 つのイベントである CacheStarted および CacheStopped は大変似ています。以下の例は、開始または停止されたキャッシュの名前を出力します。

@CacheStarted
public void cacheStarted(CacheStartedEvent event){
    // Print the name of the Cache that started
    log.info("Cache Started: " + event.getCacheName());
}

@CacheStopped
public void cacheStopped(CacheStoppedEvent event){
    // Print the name of the Cache that stopped
    log.info("Cache Stopped: " + event.getCacheName());
}

ViewChangedEvent または MergeEvent を受信するとき、新旧メンバーのリストはイベントが生成されたノードから送信されることに注意してください。例として、以下のシナリオについて考えてみましょう。

  • 現在、JDG クラスターはノード A、B、および C で構成されます。
  • ノード D がクラスターに参加します。
  • ノード A、B、および C は、[A,B,C] を旧メンバーのリストとし、[A,B,C,D] を新メンバーのリストとする ViewChangedEvent を受信します。
  • ノード D は、[D] を旧メンバーのリストとし、[A,B,C,D] を新メンバーのリストとする ViewChangedEvent を受信します。

よって、ノードのクラスターへの参加またはクラスターからの離脱を判断するために積集合が使用されることがあります。以下のように getOldMembers()getNewMembers() を使用すると、クラスターに参加したノードや離脱したノードのセットを判断できます。

@ViewChanged
public void viewChanged(ViewChangedEvent event){
    HashSet<Address> oldMembers = new HashSet(event.getOldMembers());
    HashSet<Address> newMembers = new HashSet(event.getNewMembers());
    HashSet<Address> oldCopy = (HashSet<Address>)oldMembers.clone();

    // Remove all new nodes from the old view.
    // The resulting set indicates nodes that have left the cluster.
    oldCopy.removeAll(newMembers);
    if(oldCopy.size() > 0){
        for (Address oldAdd : oldCopy){
            log.info("Node left:" + oldAdd.toString());
        }
    }

    // Remove all old nodes from the new view.
    // The resulting set indicates nodes that have joined the cluster.
    newMembers.removeAll(oldMembers);
    if(newMembers.size() > 0){
        for(Address newAdd : newMembers){
            log.info("Node joined: " + newAdd.toString());
        }
    }
}

MergeEvent の実行中に同様の論理を使用して、クラスターの新しいメンバーセットを判断することもできます。

9.3.4. 同期および非同期通知

デフォルトでは、Red Hat JBoss Data Grid の通知はイベントが生成された同じスレッドで送信されます。そのため、スレッドの進行を妨げないようにリスナーを書く必要があります。

この代わりに、別のスレッドで通知を送信し、元のスレッドの操作を妨げないようにするために、リスナーを非同期としてアノテーション付けすることもできます。

以下を使用してリスナーにアノテーションを付けます。

@Listener (sync = false)
public class MyAsyncListener { .... }

XML 設定ファイルで asyncListenerExecutor 要素を使用し、非同期通知の送信に使用されるスレッドプールを調整します。

重要

CacheEntryExpiredEvent を処理する非クラスターの同期リスナーを使用する場合、非スラスター環境ではエクスパレーションリーパー (reaper) も同期であるため、リスナーが実行を妨害しないようにしてください。

9.4. キャッシュエントリーの変更

9.4.1. キャッシュエントリーの変更

キャッシュエントリーの作成後、プログラムを使用してキャッシュエントリーを変更できます。

9.4.2. キャッシュエントリーが変更されたリスナーの設定

キャッシュエントリーが変更されたリスナーイベントでは、getValue() メソッドの動作は、実際の操作の実行前または実行後にコールバックがトリガーされたかどうかに特定されます。たとえば、event.isPre() が true の場合、event.getValue() は変更の前に古い値を返します。event.isPre() が false の場合、event.getValue() は新しい値を返します。イベントによって新しいエントリーが作成および挿入される場合、古い値は null になります。isPre() の詳細は、Red Hat JBoss Data Grid の API Documentation に記載されている org.infinispan.notifications.cachelistener.event パッケージのリストを参照してください。

Listenable および FilteringListenable インターフェース (Cache オブジェクトによって実装される) によって公開されるメソッドを使用する場合のみ、プログラムを使用してリスナーを設定できます。

9.4.3. キャッシュエントリーが変更されたリスナーの例

以下の例は、キャッシュエントリーが変更されるたびに情報を出力する Red Hat JBoss Data Grid のリスナーを定義します。

変更されたリスナー

@Listener
    public class PrintWhenModified {
        @CacheEntryModified
        public void print(CacheEntryModifiedEvent event) {
            System.out.println("Cache entry modified. Details = " + event);
        }
    }

9.5. クラスター化リスナー

9.5.1. クラスター化リスナー

クラスター化リスナーは、リスナーを分散キャッシュ設定で使用できるようにします。分散キャッシュ環境では、イベントが発生したノードのローカルイベントのみが登録されたローカルリスナーに通知されます。クラスター化リスナーでは、イベントが発生したノードに関係なくクラスターで発生する書き込み通知を 1 つのリスナーが受信できるようにし、この問題に対応します。そのため、クラスター化リスナーのパフォーマンスは、イベントが発生するノードのイベント通知のみを提供する非クラスター化リスナーよりも遅くなります。

クラスター化リスナーを使用する場合、特定のキャッシュでエントリーの追加、更新、期限切れ、または削除が行われるとクライアントアプリケーションに通知が送られます。イベントはクラスター全体であるため、アプリケーションが存在するノードや接続するノードに関係なく、クライアントアプリケーションはイベントにアクセスできます。

イベントは、常にリスナーが登録されたノード上で発生し、キャッシュの更新が発生した場所は関係しません。

9.5.2. クラスター化リスナーの設定

以下のユースケースではリスナーは受け取ったイベントを保存します。

手順: クラスター化リスナーの設定

@Listener(clustered = true)
  protected static class ClusterListener {
     List<CacheEntryEvent> events = Collections.synchronizedList(new ArrayList<CacheEntryEvent>());

     @CacheEntryCreated
     @CacheEntryModified
     @CacheEntryExpired
     @CacheEntryRemoved
     public void onCacheEvent(CacheEntryEvent event) {
        log.debugf("Adding new cluster event %s", event);
        events.add(event);
     }
  }

  public void addClusterListener(Cache<?, ?> cache) {
     ClusterListener clusterListener = new ClusterListener();
     cache.addListener(clusterListener);
  }

  1. クラスター化リスナーを有効にするには、@Listener クラスに clustered=true を付けます。
  2. エントリーの追加、変更、期限切れ、または削除時にクライアントアプリケーションが通知を受けるようにするため、以下のメソッドにはアノテーションが付けられます。

    • @CacheEntryCreated
    • @CacheEntryModified
    • @CacheEntryExpired
    • @CacheEntryRemoved
  3. リスナーはキャッシュで登録され、オプションでフィルターまたはコンバーターを渡すことができます。

クラスター化リスナーを使用すると、非クラスターリスナーでは適用されない以下の制限が適用されます。

  • クラスターリスナーは作成されたエントリー、変更されたエントリー、期限切れのエントリー、または削除されたエントリーのみをリッスンできます。他のイベントはクラスター化リスナーによってリッスンされません。
  • ポストイベントのみがクラスター化リスナーに送信され、プレイベントは無視されます。

9.5.3. キャッシュリスナー API

addListener メソッドを使用すると、クラスター化されたリスナーを既存の @CacheListener API の上に追加できます。

キャッシュリスナー API

cache.addListener(Object listener, Filter filter, Converter converter);

public @interface Listener {
  boolean clustered() default false;
  boolean includeCurrentState() default false;
  boolean sync() default true;
}


interface CacheEventFilter<K,V> {
  public boolean accept(K key, V oldValue, Metadata oldMetadata, V newValue, Metadata newMetadata, EventType eventType);
}

interface CacheEventConverter<K,V,C> {
  public C convert(K key, V oldValue, Metadata oldMetadata, V newValue, Metadata newMetadata, EventType eventType);
}

キャッシュ API

ローカルまたはクラスター化リスナーは cache.addListener メソッドで登録でき、以下のイベントの 1 つが発生するまでアクティブな状態になります。

  • cache.removeListener を呼び出してリスナーが明示的に登録解除される。
  • リスナーが登録されたノードがクラッシュする。
リスナーアノテーション

リスナーアノテーションは以下の 3 つの属性で強化されます。

  • clustered(): この属性は、アノテーションが付けられたリスナーがクラスター化されているかどうかを定義します。クラスター化されたリスナーは @CacheEntryRemoved@CacheEntryCreated@CacheEntryExpired、および @CacheEntryModified イベントのみの通知を受けることができます。この属性はデフォルトで false に指定されています。
  • includeCurrentState(): この属性はクラスター化リスナーのみに適用され、デフォルトで false に指定されています。true に設定すると、クラスター内で既存の状態全体が評価されます。登録されると、キャッシュの各エントリーの CacheCreatedEvent が即座にリスナーに送信されます。
  • sync() に関する詳細は、同期および非同期の通知 を参照してください。
oldValue および oldMetadata
oldValue および oldMetadata の値は、CacheEventFilter および CacheEventConverter クラスの許可メソッド上の追加メソッドです。これらの値は、ローカルリスナーを含むすべてのリスナーに提供されます。これらの値の詳細は、JBoss Data Grid の API Documentation を参照してください。
EventType
EventType には、イベントのタイプ、再試行であったかどうか、およびプレまたはポストイベントであったかどうかが含まれます。

クラスター化リスナーを使用する場合、キャッシュが更新される順序は通知を受け取る順序に反映されます。

クラスター化リスナーは、イベントが 1 度だけ送信されることを保証しません。同じイベントが複数回送信されないようにするため、リスナー実装はべき等である必要があります。安定したクラスターや、includeCurrentState の結果として合成イベントが生成されるタイムスパン外部では、単一性が受け入れられることをインプリメンターは想定することができます。

9.5.4. クラスター化リスナーの例

次のユースケースは、ニューヨーク州のニューヨーク市宛の注文がいつ生成されるか知りたいリスナーを表しています。リスナーには、ニューヨークから出入りする注文をフィルターする Filter が必要です。さらに、注文全体は必要ではなく、配達される日付のみが必要であるため、Converter も必要になります。

ユースケース: ニューヨーク宛の注文のフィルターおよび変換

class CityStateFilter implements CacheEventFilter<String, Order> {
    private String state;
    private String city;

    public boolean accept(String orderId, Order oldOrder,
                          Metadata oldMetadata, Order newOrder,
                          Metadata newMetadata, EventType eventType) {
        switch (eventType.getType()) {
            // Only send update if the order is going to our city
            case CACHE_ENTRY_CREATED:
                return city.equals(newOrder.getCity()) &&
                        state.equals(newOrder.getState());
            // Only send update if our order has changed from our city to elsewhere or if is now going to our city
            case CACHE_ENTRY_MODIFIED:
                if (city.equals(oldOrder.getCity()) &&
                        state.equals(oldOrder.getState())) {
                    // If old city matches then we have to compare if new order is no longer going to our city
                    return !city.equals(newOrder.getCity()) ||
                            !state.equals(newOrder.getState());
                } else {
                    // If the old city doesn't match ours then only send update if new update does match ours
                    return city.equals(newOrder.getCity()) &&
                            state.equals(newOrder.getState());
                }
                // On remove we have to send update if our order was originally going to city
            case CACHE_ENTRY_REMOVED:
                return city.equals(oldOrder.getCity()) &&
                        state.equals(oldOrder.getState());
        }
        return false;
    }
}

class OrderDateConverter implements CacheEventConverter<String, Order, Date> {
    private String state;
    private String city;

    public Date convert(String orderId, Order oldValue,
                        Metadata oldMetadata, Order newValue,
                        Metadata newMetadata, EventType eventType) {
        // If remove we do not care about date - this tells listener to remove its data
        if (eventType.isRemove()) {
            return null;
        } else if (eventType.isModified()) {
            if (state.equals(newValue.getState()) &&
                    city.equals(newValue.getCity())) {
                // If it is a modification meaning the destination has changed to ours then we allow it
                return newValue.getDate();
            } else {
                // If destination is no longer our city it means it was changed from us so send null
                return null;
            }
        } else {
            // This was a create so we always send date
            return newValue.getDate();
        }
    }
}

9.5.5. 最適化されたキャッシュフィルターコンバーター

クラスター化リスナーの例では、結果のフィルターおよび変換を一度に実行するために、最適化された CacheEventFilterConverter を使用できます。

CacheEventFilterConverter は、イベントのフィルターと変換を一度に実行できるようにする最適化です。これは、イベントフィルターとコンバーターが同じオブジェクトとして最も効率的に使用され、同じメソッドでフィルターと変換が行われる場合に使用できます。戻り値が null の場合は値がフィルターを通過しなかったことを意味するため、変換が null 値を返さない場合のみ使用できます。null 値を変換するには、CacheEventFilter および CacheEventConverter インターフェースを独立して使用します。

以下は、CacheEventFilterConverter を使用したニューヨーク宛の注文のユースケース例になります。

CacheEventFilterConverter

class OrderDateFilterConverter extends AbstractCacheEventFilterConverter<String, Order, Date> {
    private final String state;
    private final String city;

    public Date filterAndConvert(String orderId, Order oldValue,
                                 Metadata oldMetadata, Order newValue,
                                 Metadata newMetadata, EventType eventType) {
        // Remove if the date is not required - this tells listener to remove its data
        if (eventType.isRemove()) {
            return null;
        } else if (eventType.isModified()) {
            if (state.equals(newValue.getState()) &&
                city.equals(newValue.getCity())) {
                // If it is a modification meaning the destination has changed to ours then we allow it
                return newValue.getDate();
            } else {
                // If destination is no longer our city it means it was changed from us so send null
                return null;
            }
        } else {
            // This was a create so we always send date
            return newValue.getDate();
        }
    }
}

リスナーの登録時、フィルターとコンバーターの両方の引数として FilterConverter を提供します。

OrderDateFilterConverter filterConverter = new OrderDateFilterConverter("NY", "New York");
cache.addListener(listener, filterConveter, filterConverter);

9.6. リモートイベントリスナー (Hot Rod)

9.6.1. リモートイベントリスナー (Hot Rod)

イベントリスナーは、Red Hat JBoss Data Grid Hot Rod サーバーが CacheEntryCreatedCacheEntryModifiedCacheEntryExpiredCacheEntryRemoved などのイベントのリモートクライアントを通知できるようにします。接続されたクライアントが殺到しないようにするため、クライアントはこれらのイベントをリッスンするかどうかを選択することができます。クライアントがサーバーへの永続接続を維持することが前提となります。

リモートイベントのクライアントリスナーは、ライブラリーモードのクラスター化リスナーと同様に追加できます。以下は、受け取った各イベントを出力するリモートクライアントリスナーの例になります。

イベント出力リスナー

import org.infinispan.client.hotrod.annotation.*;
import org.infinispan.client.hotrod.event.*;

@ClientListener
public class EventLogListener {

   @ClientCacheEntryCreated
   public void handleCreatedEvent(ClientCacheEntryCreatedEvent e) {
      System.out.println(e);
   }

   @ClientCacheEntryModified
   public void handleModifiedEvent(ClientCacheEntryModifiedEvent e) {
      System.out.println(e);
   }

   @ClientCacheEntryExpired
   public void handleExpiredEvent(ClientCacheEntryExpiredEvent e) {
      System.out.println(e);
   }

   @ClientCacheEntryRemoved
   public void handleRemovedEvent(ClientCacheEntryRemovedEvent e) {
      System.out.println(e);
   }

}

  • ClientCacheEntryCreatedEvent および ClientCacheEntryModifiedEvent インスタンスは、キーおよびエントリーのバージョンに関する情報を提供します。このバージョンは、replaceWithVersionremoveWithVersion などのサーバー上の条件付き操作を呼び出すために使用されます。
  • 期限切れのエントリーで get() が呼び出された場合、またはエクスパレーションリーパーがエントリーの期限切れを検出した場合、ClientCacheEntryExpiredEvent イベントが送信されます。エントリーの期限が切れると、キャッシュがエントリーを null にし、サイズを適切に調整します。しかし、イベントは 2 つのシナリオでのみ生成されます。
  • ClientCacheEntryRemovedEvent イベントは、削除操作が成功した場合のみ送信されます。削除操作が呼び出された場合にエントリーが見つからなかったり、削除するエントリーがないと、イベントは生成されません。イベント削除が成功するかどうかに関わらずイベントの削除が必要な場合は、カスタマイズされたイベント論理を作成します。
  • すべてのクライアントキャッシュエントリーの作成、変更、および削除されたイベントは、トポロジーの変更により書き込みコマンドを再試行しなければならない場合に true を返す boolean isCommandRetried() メソッドを提供します。これは、イベントが複製されたか、別のイベントが破棄または置換された (作成されたイベントが変更されたイベントに置き換えられるなど) ことを意味します。
重要

想定されるワークロードで書き込みが読み取りよりも優先される場合、送信するイベントをフィルターし、クライアントやネットワークで問題となる可能性がある過剰なトラフィックが大量に生成されないようにします。

重要

リモートイベントリスナーは、Hot Rod Java クライアントのみで使用できます。

9.6.2. イベントリスナーの追加および削除

サーバーでのイベントリスナーの登録

以下の例は、サーバーでイベント出力リスナーを登録します。イベント出力リスナー を参照してください。

イベントリスナーの追加

RemoteCache<Integer, String> cache = rcm.getCache();
cache.addClientListener(new EventLogListener());

クライアントイベントリスナーの削除

クライアントイベントリスナーは以下のように削除できます。

EventLogListener listener = ...
cache.removeClientListener(listener);

9.6.3. リモートイベントクライアントリスナーの例

以下は、Hot Rod 経由でリモートキャッシュと対話するようにリモートクライアントリスナーを設定するために必要な手順になります。

リモートイベントリスナーの設定

  1. Red Hat カスタマーポータルから Red Hat JBoss Data Grid ディストリビューションをダウンロードします。

    最新の Red Hat JBoss Data Grid ディストリビューションには、クライアントが通信する Hot Rod サバーが含まれています。

  2. サーバーの起動

    Red Hat JBoss Data Grid サーバーのルートから以下のコマンドを実行し、サーバーを起動します。

    $ ./bin/standalone.sh
  3. Hot Rod サーバーと対話するアプリケーションの作成

    1. Maven ユーザー

      以下の依存関係でアプリケーションを作成します。バージョンは 8.4.0.Final-redhat-2 以上に変更します。

      <properties>
        <infinispan.version>8.4.0.Final-redhat-2</infinispan.version>
      </properties>
      [...]
      <dependency>
        <groupId>org.infinispan</groupId>
        <artifactId>infinispan-remote</artifactId>
        <version>${infinispan.version}</version>
      </dependency>
    2. Maven 以外のユーザーは、使用するビルドツールに合わせて調整するか、すべての JBoss Data Grid jar が含まれるディストリビューションをダウンロードします。
  4. クライアントアプリケーションの作成

    以下は、受け取ったイベントをすべてログに記録する簡単なリモートイベントリスナーを示しています。

    import org.infinispan.client.hotrod.annotation.*;
    import org.infinispan.client.hotrod.event.*;
    
    
    @ClientListener
    public class EventLogListener {
    
    
     @ClientCacheEntryCreated
     @ClientCacheEntryModified
     @ClientCacheEntryRemoved
     public void handleRemoteEvent(ClientEvent event) {
       System.out.println(event);
      }
    
    
    }
  5. リモートイベントリスナーを使用したリモートキャッシュに対する操作の実行

    以下は、リモートイベントリスナーを追加し、リモートキャッシュに対して一部の操作を実行する簡単なメイン java クラスの例になります。

    import org.infinispan.client.hotrod.*;
    
    
    RemoteCacheManager rcm = new RemoteCacheManager();
    RemoteCache<Integer, String> cache = rcm.getCache();
    EventLogListener listener = new EventLogListener();
    try {
     cache.addClientListener(listener);
     cache.put(1, "one");
     cache.put(1, "new-one");
     cache.remove(1);
    } finally {
     cache.removeClientListener(listener);
    }

結果

実行すると、以下と似たコンソール出力が表示されます。

ClientCacheEntryCreatedEvent(key=1,dataVersion=1)
ClientCacheEntryModifiedEvent(key=1,dataVersion=2)
ClientCacheEntryRemovedEvent(key=1)

出力は、デフォルトでイベントにはキーと現在の値に関連するデータバージョンが含まれることを示しています。実際の値はパフォーマンス上の理由でクライアントへ返送されません。リモートイベントの受け取りはパフォーマンスに影響します。キャッシュサイズが大きくなるとより多くの操作が実行されるため、パフォーマンスへの影響も大きくなります。Hot Rod クライアントにイベントが大量に送られないようにするには、サーバー側でリモートイベントをフィルターするか、イベントコンテンツをカスタマイズします。

9.6.4. リモートイベントのフィルター

9.6.4.1. リモートイベントのフィルター

クライアントに大量のイベントが送信されないようにするため、Red Hat JBoss Data Grid の Hot Rod リモートイベントをフィルターすることができます。フィルターするには、クライアントに送信されるイベントやクライアント提供の情報でこれらのフィルターが動作する方法をフィルターするインスタンスを作成するキーバリューのフィルターファクトリーを提供します。

リモートクライアントへのイベント送信はパフォーマンスに影響します。リモートリスナーが登録されたクライアントの数が多くなると、パフォーマンスのコストも増加します。また、キャッシュに対して実行された変更の数が多くなると、パフォーマンスへの影響も大きくなります。

サーバー側で送信されるイベントをフィルターするとパフォーマンスのコストを削減できます。カスタムコードを使用して、一部のイベントがリモートクライアントへブロードキャストされないようにしてパフォーマンスを向上することができます。

キーや値の情報またはキャッシュエントリーメタデータの情報を基にしてフィルターを行うことができます。フィルターを有効にするには、フィルターインスタンスを作成するキャッシュイベントフィルターファクトリーを作成する必要があります。以下は、クライアントに送信されたイベントから キー「2」 をフィルターする簡単な実装になります。

KeyValueFilter

package sample;

import java.io.Serializable;
import org.infinispan.notifications.cachelistener.filter.*;
import org.infinispan.metadata.*;

@NamedFactory(name = "basic-filter-factory")
public class BasicKeyValueFilterFactory implements CacheEventFilterFactory {
  @Override public CacheEventFilter<Integer, String> getFilter(final Object[] params) {
    return new BasicKeyValueFilter();
  }

    static class BasicKeyValueFilter implements CacheEventFilter<Integer, String>, Serializable {
      @Override public boolean accept(Integer key, String oldValue, Metadata oldMetadata, String newValue, Metadata newMetadata, EventType eventType) {
        return !"2".equals(key);
      }
    }
}

このキーバリューフィルターファクトリーでリスナーを登録するには、ファクトリーに一意な名前を付け、Hot Rod サーバーをその名前とキャッシュイベントフィルターファクトリーインスタンスでプラグする必要があります。

9.6.4.2. リモートイベントのカスタムフィルター

カスタムフィルターは、一部のイベント情報がリモートクライアントへブロードキャストされないようにしてパフォーマンスを向上できます。

カスタムフィルターで JBoss Data Grid サーバーをプラグするには、以下の手順を使用します。

カスタムフィルターの使用

  1. 内部にフィルター実装が含まれる JAR ファイルを作成します。org.infinispan.filter.NamedFactory アノテーションを使用して、各ファクトリーに名前を割り当てる必要があります。例は KeyValueFilterFactory を使用します。
  2. JAR ファイル内に META-INF/services/org.infinispan.notifications.cachelistener.filter. CacheEventFilterFactory ファイルを作成し、その内部にフィルタークラス実装の完全修飾クラス名を記述します。
  3. 以下のオプションの 1 つを実行し、 JBoss Data Grid サーバーに JAR ファイルをデプロイします。

    • オプション 1: デプロイメントスキャナーを用いた JAR のデプロイ

      • JAR$JDG_HOME/standalone/deployments/ ディレクトリーにコピーします。デプロイメントスキャナーはこのディレクトリーをアクティブに監視し、新たに配置されたファイルをデプロイします。
    • オプション 2: CLI を用いた JAR のデプロイ

      • CLI で目的のインスタンスに接続します。

        [$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
      • 接続後、deploy コマンドを実行します。

        deploy /path/to/artifact.jar
    • オプション 3: JAR をカスタムモジュールとしてデプロイ

      • 以下のコマンドを実行して JDG サーバーに接続します。

        [$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
      • カスタムフィルターが含まれる jar はサーバーのモジュールとして定義する必要があります。追加するには、以下のコマンドのモジュール名と .jar 名を置き換え、カスタムフィルターに追加の依存関係が必要な場合は追加します。

        module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispan
      • 別のウインドウで、$JDG_HOME/modules/system/layers/base/org/infinispan/main/module.xml を編集して、新規追加したモジュールを依存関係として org.infinispan モジュールに追加します。このファイルに以下のエントリーを追加します。

        <dependencies>
          [...]
          <module name="$MODULE-NAME">
        </dependencies>
      • JDGを サーバーを再起動します。

サーバーがフィルターでプラグされたら、そのフィルターを使用するリモートクライアントリスナーを追加します。以下の例は、リモートイベントクライアントリスナーの例 (リモートイベントクライアントリスナーの例 を参照) を拡張し、@ClientListener アノテーションをオーバーライドしてリスナーと使用するフィルターファクトリーを示します。

フィルターファクトリーのリスナーへの追加

@org.infinispan.client.hotrod.annotation.ClientListener(filterFactoryName = "basic-filter-factory")
public class BasicFilteredEventLogListener extends EventLogListener {}

リスナーは RemoteCacheAPI を使用して追加できるようになりました。以下の例はこれを実証し、一部の操作をリモートキャッシュに対して実行します。

サーバーでのリスナーの登録

import org.infinispan.client.hotrod.*;

RemoteCacheManager rcm = new RemoteCacheManager();
RemoteCache<Integer, String> cache = rcm.getCache();
BasicFilteredEventLogListener listener = new BasicFilteredEventLogListener();
try {
  cache.addClientListener(listener);
  cache.putIfAbsent(1, "one");
  cache.replace(1, "new-one");
  cache.putIfAbsent(2, "two");
  cache.replace(2, "new-two");
  cache.putIfAbsent(3, "three");
  cache.replace(3, "new-three");
  cache.remove(1);
  cache.remove(2);
  cache.remove(3);
} finally {
  cache.removeClientListener(listener);
}

システム出力は、フィルターされたものを除くすべてのキーのイベントをクライアントが受け取ることを示しています。

結果

以下は、例の結果となるシステム出力を示しています。

ClientCacheEntryCreatedEvent(key=1,dataVersion=1)
ClientCacheEntryModifiedEvent(key=1,dataVersion=2)
ClientCacheEntryCreatedEvent(key=3,dataVersion=5)
ClientCacheEntryModifiedEvent(key=3,dataVersion=6)
ClientCacheEntryRemovedEvent(key=1)
ClientCacheEntryRemovedEvent(key=3)
重要

イベントがリスナーが登録されたノード以外で生成された場合でも、イベントが生成された場所でフィルターが実行されるようにするため、フィルターインスタンスはクラスターへのデプロイ時にマーシャル可能である必要があります。フィルターインスタンスをマーシャル可能にするには、フィルターインスタンスが Serializable や Externalizable を拡張するようにするか、カスタムエクスターナライザーを提供します。

9.6.4.3. 強化されたフィルターファクトリー

クライアントリスナーの追加時、パラメーターをフィルターファクトリーに提供して、クライアント側の情報を基に単一のフィルターファクトリーから挙動の異なるさまざまなフィルターを生成することができます。

以下の設定は、静的に提供されたキーでフィルターを行う代わりに、リスナーの追加時に提供されたキーを基に動的にフィルターを実行できるようにするためのフィルターファクトリーの強化方法を表しています。

強化されたフィルターファクトリーの設定

package sample;

import java.io.Serializable;
import org.infinispan.notifications.cachelistener.filter.*;
import org.infinispan.metadata.*;

@NamedFactory(name = "basic-filter-factory")
public class BasicKeyValueFilterFactory implements CacheEventFilterFactory {
  @Override public CacheEventFilter<Integer, String> getFilter(final Object[] params) {
    return new BasicKeyValueFilter(params);
}

  static class BasicKeyValueFilter implements CacheEventFilter<Integer, String>, Serializable {
    private final Object[] params;
    public BasicKeyValueFilter(Object[] params) { this.params = params; }
    @Override public boolean accept(Integer key, String oldValue, Metadata oldMetadata, String newValue, Metadata newMetadata, EventType eventType) {
      return !params[0].equals(key);
    }
  }
}

このフィルターは「2」ではなく「3」でフィルターが実行されるようになりました。

強化されたフィルターファクトリーの実行

import org.infinispan.client.hotrod.*;

RemoteCacheManager rcm = new RemoteCacheManager();
RemoteCache<Integer, String> cache = rcm.getCache();
BasicFilteredEventLogListener listener = new BasicFilteredEventLogListener();
try {
  cache.addClientListener(listener, new Object[]{3}, null); // <- Filter parameter passed
  cache.putIfAbsent(1, "one");
  cache.replace(1, "new-one");
  cache.putIfAbsent(2, "two");
  cache.replace(2, "new-two");
  cache.putIfAbsent(3, "three");
  cache.replace(3, "new-three");
  cache.remove(1);
  cache.remove(2);
  cache.remove(3);
} finally {
  cache.removeClientListener(listener);
}

結果

例の結果として、以下が出力されます。

ClientCacheEntryCreatedEvent(key=1,dataVersion=1)
ClientCacheEntryModifiedEvent(key=1,dataVersion=2)
ClientCacheEntryCreatedEvent(key=2,dataVersion=3)
ClientCacheEntryModifiedEvent(key=2,dataVersion=4)
ClientCacheEntryRemovedEvent(key=1)
ClientCacheEntryRemovedEvent(key=2)

リモートイベントをカスタマイズすると、クライアントに送信する情報量をさらに削減することができます。

9.6.5. リモートイベントのカスタマイズ

9.6.5.1. リモートイベントのカスタマイズ

Red Hat JBoss Data Grid では、Hot Rod リモートイベントをカスタマイズしてクライアントへ送信する必要がある情報が含まれるようにすることができます。デフォルトでは、クライアントが過負荷にならないようにし、情報送信のコストを削減するため、イベントにはキーやイベントタイプなどの基本的な情報のみが含まれます。

これらのイベントに含まれる情報をカスタマイズし、値などの追加情報が含まれるようにしたり、より少ない情報が含まれるようにすることができます。カスタマイズするには、CacheEventConverterFactory クラスを実装して作成される CacheEventConverter インスタンスを使用します。各ファクトリーには、@NamedFactory アノテーションを使用したこれに関連する名前が必要です。

Red Hat JBoss Data Grid サーバーをイベントコンバーターでプラグするには、以下の手順を使用します。

コンバーターの使用

  1. コンバーター実装が含まれる JAR ファイルを作成します。各ファクトリーには、org.infinispan.filter.NamedFactory アノテーションを使用したこれに関連する名前が必要です。
  2. JAR ファイル内に META-INF/services/org.infinispan.notifications.cachelistener.filter.CacheEventConverterFactory ファイルを作成し、その内部にコンバータークラス実装の完全修飾クラス名を記述します。
  3. 以下のオプションの 1 つを実行し、Red Hat JBoss Data Grid サーバーに JAR ファイルをデプロイします。

    • オプション 1: デプロイメントスキャナーを用いた JAR のデプロイ

      • JAR$JDG_HOME/standalone/deployments/ ディレクトリーにコピーします。デプロイメントスキャナーはこのディレクトリーをアクティブに監視し、新たに配置されたファイルをデプロイします。
    • オプション 2: CLI を用いた JAR のデプロイ

      • CLI で目的のインスタンスに接続します。

        [$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
      • 接続後、deploy コマンドを実行します。

        deploy /path/to/artifact.jar
    • オプション 3: JAR をカスタムモジュールとしてデプロイ

      • 以下のコマンドを実行して JDG サーバーに接続します。

        [$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
      • カスタムコンバーターが含まれる jar はサーバーのモジュールとして定義する必要があります。追加するには、以下のコマンドのモジュール名と .jar 名を置き換え、カスタムコンバーターに追加の依存関係が必要な場合は追加します。

        module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispan
      • 別のウインドウで、$JDG_HOME/modules/system/layers/base/org/infinispan/main/module.xml を編集して、新規追加したモジュールを依存関係として org.infinispan モジュールに追加します。このファイルに以下のエントリーを追加します。

        <dependencies>
          [...]
          <module name="$MODULE-NAME">
        </dependencies>
      • JDGを サーバーを再起動します。

コンバーターはクライアントが提供する情報にも対応でき、コンバーターインスタンスはリスナーの追加時に提供された情報を基にイベントをカスタマイズできます。API は、リスナーの追加時にコンバーターパラメーターが渡されるようにします。

9.6.5.2. コンバーターの追加

リスナーの追加時、リスナーと使用するコンバーターファクトリーの名前が提供されます。リスナーが追加されると、サーバーはファクトリーを検索し、サーバー側のイベントをカスタマイズするために getConverter メソッドを呼び出して org.infinispan.filter.Converter クラスインスタンスを取得します。

以下の例は、整数と文字列のキャッシュに対して値の情報が含まれるカスタムイベントをリモートクライアントに送信します。コンバーターは、値とイベントのキーが含まれる新しいカスタムイベントを生成します。カスタムイベントのイベントペイロードはデフォルトのイベントよりも大きくなりますが、フィルターを組み合わせると帯域幅のコストを削減できます。

カスタムイベントの送信

import org.infinispan.notifications.cachelistener.filter.*;

@NamedFactory(name = "value-added-converter-factory")
class ValueAddedConverterFactory implements CacheEventConverterFactory {
  // The following types correspond to the Key, Value, and the returned Event, respectively.
  public CacheEventConverter<Integer, String, ValueAddedEvent> getConverter(final Object[] params) {
    return new ValueAddedConverter();
  }

  static class ValueAddedConverter implements CacheEventConverter<Integer, String, ValueAddedEvent> {
    public ValueAddedEvent convert(Integer key, String oldValue,
                                   Metadata oldMetadata, String newValue,
                                   Metadata newMetadata, EventType eventType) {
      return new ValueAddedEvent(key, newValue);
    }
  }
}

// Must be Serializable or Externalizable.
class ValueAddedEvent implements Serializable {
    final Integer key;
    final String value;
    ValueAddedEvent(Integer key, String value) {
      this.key = key;
      this.value = value;
    }
}

9.6.5.3. ライトウェイトイベント

他のコンバーター実装は、キーやイベントタイプ情報が含まれないイベントを返送できます。そのため、イベントが大幅に軽量化されますが、イベントによって詳細情報は提供されません。

このコンバーターでサーバーをプラグするには、コンバーターファクトリーと関連するコンバータークラスを JAR ファイル内にデプロイし、以下のように META-INF/services/org.infinispan.notifications.cachelistener.filter.CacheEventConverterFactory ファイル内のサービス定義が含まれるようにします。

sample.ValueAddedConverterFactor

この後、ファクトリー名を @ClientListener アノテーションに追加して、クライアントリスナーをコンバーターファクトリーとリンクする必要があります。

@ClientListener(converterFactoryName = "value-added-converter-factory")
public class CustomEventLogListener { ... }

9.6.5.4. 動的なコンバーターインスタンス

動的なコンバーターインスタンスは、リスナーの登録時に提供されたパラメーターを基にして変換を行います。コンバーターはコンバーターファクトリーによって受信されたパラメーターを使用してこのオプションを有効にします。例は以下のとおりです。

動的なコンバーター

import org.infinispan.notifications.cachelistener.filter.CacheEventConverterFactory;
import org.infinispan.notifications.cachelistener.filter.CacheEventConverter;

class DynamicCacheEventConverterFactory implements CacheEventConverterFactory {
   // The following types correspond to the Key, Value, and the returned Event, respectively.
   public CacheEventConverter<Integer, String, CustomEvent> getConverter(final Object[] params) {
      return new DynamicCacheEventConverter(params);
   }
}

// Serializable, Externalizable or marshallable with Infinispan Externalizers needed when running in a cluster
class DynamicCacheEventConverter implements CacheEventConverter<Integer, String, CustomEvent>, Serializable {
   final Object[] params;

   DynamicCacheEventConverter(Object[] params) {
      this.params = params;
   }

   public CustomEvent convert(Integer key, String oldValue, Metadata metadata, String newValue, Metadata prevMetadata, EventType eventType) {
      // If the key matches a key given via parameter, only send the key information
      if (params[0].equals(key))
         return new ValueAddedEvent(key, null);

      return new ValueAddedEvent(key, newValue);
   }
}

変換の実行に必要な動的パラメーターはリスナーの登録時に提供されます。

RemoteCache<Integer, String> cache = rcm.getCache();
cache.addClientListener(new EventLogListener(), null, new Object[]{1});

9.6.5.5. カスタムイベントのリモートクライアントリスナーの追加

カスタムイベントのリスナーの実装は、デフォルトでないイベントが関係するため、他のリモートイベントの場合とは若干異なります。他のリモートクライアントリスナー実装と同じアノテーションが使用されますが、コールバックは ClientCacheEntryCustomEvent<T> のインスタンスを受信します (T はサーバーから送信するカスタムイベントのタイプになります)。例を以下に示します。

カスタムイベントリスナー実装

import org.infinispan.client.hotrod.annotation.*;
import org.infinispan.client.hotrod.event.*;

@ClientListener(converterFactoryName = "value-added-converter-factory")
public class CustomEventLogListener {

    @ClientCacheEntryCreated
    @ClientCacheEntryModified
    @ClientCacheEntryRemoved
    public void handleRemoteEvent(ClientCacheEntryCustomEvent<ValueAddedEvent> event)
    {
        System.out.println(event);
    }
}

リモートイベントリスナーを使用してリモートキャッシュに対して操作を実行するには、リモートイベントリスナーを追加してリモートキャッシュに対して操作を実行する簡単なメイン Java クラスを作成します。例を以下に示します。

リモートキャッシュに対する操作の実行

import org.infinispan.client.hotrod.*;

RemoteCacheManager rcm = new RemoteCacheManager();
RemoteCache<Integer, String> cache = rcm.getCache();
CustomEventLogListener listener = new CustomEventLogListener();
try {
  cache.addClientListener(listener);
  cache.put(1, "one");
  cache.put(1, "new-one");
  cache.remove(1);
} finally {
  cache.removeClientListener(listener);
}

結果

実行すると、以下と似たコンソール出力が表示されます。

ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='one'}, eventType=CLIENT_CACHE_ENTRY_CREATED)
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='new-one'}, eventType=CLIENT_CACHE_ENTRY_MODIFIED)
ClientCacheEntryCustomEvent(eventData=ValueAddedEvent{key=1, value='null'}, eventType=CLIENT_CACHE_ENTRY_REMOVED
重要

リスナーが登録されたノードではない別のノードでイベントが生成された場合でも、イベントが生成された場所で変換が発生するようにするには、コンバーターインスタンスがクラスターにデプロイされたときにマーシャル可能である必要があります。コンバーターインスタンスをマーシャル可能にするには、Serializable または Externalizable を拡張するようにするか、カスタムの Externalizer を提供します。タイプセーフな API に対して記述するサーバーとクライアントの両方を円滑にするため、クライアントとサーバーの両方がカスタムイベントタイプを認識し、マーシャルできる必要があります。

9.6.6. イベントマーシャリング

イベントをフィルターまたはカスタマイズする際、KeyValueFilter および Converter インスタンスはマーシャル可能でなければなりません。クライアントリスナーがクラスターにインストールされると、イベントの送信元でフィルターと変換が行われるようにするため、フィルターインスタンスとコンバーターインスタンスはクラスターの他のノードに送信されます。これにより効率がよくなります。これらのクラスをマーシャル可能にするには、これらのクラスが Serializable を拡張するようにするか、カスタム Externalizer を提供および登録します。

Marshaller インスタンスをサーバー側にデプロイするには、フィルターおよびカスタマイズされたイベントに使用されるメソッドに似たメソッドを使用します。

マーシャラーのデプロイ

  1. コンバーター実装が含まれる JAR ファイルを作成します。各ファクトリーには、org.infinispan.filter.NamedFactory アノテーションを使用したこれに関連する名前が必要です。
  2. JAR ファイル内に META-INF/services/org.infinispan.commons.marshall.Marshaller ファイルを作成し、その内部にマーシャラークラス実装の完全修飾クラス名を記述します。
  3. 以下のオプションの 1 つを実行し、 JBoss Data Grid サーバーに JAR ファイルをデプロイします。

    • オプション 1: デプロイメントスキャナーを用いた JAR のデプロイ

      • JAR$JDG_HOME/standalone/deployments/ ディレクトリーにコピーします。デプロイメントスキャナーはこのディレクトリーをアクティブに監視し、新たに配置されたファイルをデプロイします。
    • オプション 2: CLI を用いた JAR のデプロイ

      • CLI で目的のインスタンスに接続します。

        [$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
      • 接続後、deploy コマンドを実行します。

        deploy /path/to/artifact.jar
    • オプション 3: JAR をカスタムモジュールとしてデプロイ

      • 以下のコマンドを実行して JDG サーバーに接続します。

        [$JDG_HOME] $ bin/cli.sh --connect=$IP:$PORT
      • カスタムマーシャラーが含まれる jar はサーバーのモジュールとして定義する必要があります。追加するには、以下のコマンドのモジュール名と .jar 名を置き換え、カスタムマーシャラーに追加の依存関係が必要な場合は追加します。

        module add --name=$MODULE-NAME --resources=$JAR-NAME.jar --dependencies=org.infinispan
      • 別のウインドウで、$JDG_HOME/modules/system/layers/base/org/infinispan/main/module.xml を編集して、新規追加したモジュールを依存関係として org.infinispan モジュールに追加します。このファイルに以下のエントリーを追加します。

        <dependencies>
          [...]
          <module name="$MODULE-NAME">
        </dependencies>
      • JDGを サーバーを再起動します。

マーシャラーは、個別の jar または CacheEventConverter や CacheEventFilter インスタンスと同じ jar にデプロイすることができます。

注記

1 つの Marshaller インスタンスのデプロイメントのみがサポートされます。複数の Marshaller インスタンスがデプロイされると、警告メッセージが表示され、使用される Marshaller が示されます。

9.6.7. リモートイベントクラスタリングおよびフェイルオーバー

クライアントがリモートリスナーを追加するとき、クラスターの単一のノードにインストールされます。このノードは、クラスター全体で発生する影響受ける操作すべてに対してイベントをクライアントに返送します。

クラスター化された環境では、リスナーが含まれるノードがダウンした場合、Hot Rod クライアント実装が透過的にクライアントリスナーの登録を別のノードにフェイルオーバーします。これにより、イベントの消費にギャップが生じることがありますが、以下の方法の 1 つを使用すると解決できます。

状態の配信

@ClientListener アノテーションにはオプションの includeCurrentState パラメーターがあります。このパラメーターを有効にすると、サーバーは既存のキャッシュエントリーすべての CacheEntryCreatedEvent イベントインスタンスをクライアントに送信します。この動作は、リスナーが登録されたノードがオフラインになったときに検出されるクライアントによって決定され、自動的にリスナーをクラスターの別のノードに登録します。includeCurrentState を有効にすると、Hot Rod クライアントが登録されたリスナーを透過的にフェイルオーバーする場合にクライアントの状態や計算を再算出できます。includeCurrentState パラメーターのパフォーマンスは、キャッシュの大きさに影響されるため、デフォルトでは無効になっています。

@ClientCacheFailover

受信状態に依存する代わりに、@ClientCacheFailover アノテーションを使用して、クライアントリスナー実装内で ClientCacheFailoverEvent パラメーターを受信するメソッドを定義できます。Hot Rod クライアントが登録されたノードでクライアントリスナーに障害が発生すると、Hot Rod クライアントによって障害が透過的に検出され、障害が発生したノードに登録されたすべてのリスナーは別のノードにフェイルオーバーされます。

フェイルオーバーの間にクライアントが一部のイベントを見逃すことがあります。イベントを見逃さないようにするには、includeCurrentState パラメーターを true に設定します。これを有効にすると、クライアントはデータを消去でき、 CacheEntryCreatedEvent インスタンスすべてを受信し、すべてのキーでこれらのイベントをキャッシュできます。この代わりに、コールバックハンドラーを追加して、Hot Rod クライアントがフェイルオーバーイベントを認識できるようにすることができます。このコールバックメソッドは、クライアントリスナーに影響するクラスタートポロジーの変更に対応する効率的な方法で、クライアントリスナーはフェイルオーバーでどのように動作するかを判断することができます。ニアキャッシュはこの方法を利用し、ClientCacheFailoverEvent の受信後にニアキャッシュは消去されます。

@ClientCacheFailover

import org.infinispan.client.hotrod.annotation.*;
import org.infinispan.client.hotrod.event.*;

@ClientListener
public class EventLogListener {
// ...

    @ClientCacheFailover
    public void handleFailover(ClientCacheFailoverEvent e) {
      // Deal with client failover, e.g. clear a near cache.
    }
}

注記

ClientCacheFailoverEvent は、クライアントリスナーがインストールされたノードに障害が発生した場合のみ発生します。

第10章 JSR-107 (JCache) API

10.1. JSR-107 (JCache) API

Red Hat JBoss Data Grid 6.5 より、JCache 1.0.0 API の実装 (JSR-107) が含まれるようになりました。JCache は、一時的な Java オブジェクトをメモリーにキャッシュするために標準の Java API を選択しました。Java オブジェクトをキャッシュすると、読み出しのコストが高いデータ (DB または Web サービス) または計算が困難なデータの使用により発生したボトルネックに対応できます。このようなオブジェクトをメモリーでキャッシュすると、コストの高いラウンドトリップや再計算を行う代わりに、メモリーから直接データを読み出しすることでアプリケーションを高速化することができます。本書では、新しい仕様の Red Hat JBoss Data Grid で JCache を使用する方法と API の主な側面を説明します。

10.2. 依存関係

JCache の依存関係を定義するには、Maven で定義するか、クラスパスに追加します。両方の方法について以下に説明します。

10.2.1. オプション 1: Maven

JCache 実装を使用するには、使用方法に応じて以下の依存関係を Maven の pom.xml に追加する必要があります。

  • embedded:

    <dependency>
        <groupId>org.infinispan</groupId>
        <artifactId>infinispan-embedded</artifactId>
        <version>${infinispan.version}</version>
    </dependency>
    
    <dependency>
        <groupId>javax.cache</groupId>
        <artifactId>cache-api</artifactId>
        <version>1.0.0.redhat-1</version>
    </dependency>
  • remote:

    <dependency>
        <groupId>org.infinispan</groupId>
        <artifactId>infinispan-remote</artifactId>
        <version>${infinispan.version}</version>
    </dependency>
    
    <dependency>
        <groupId>javax.cache</groupId>
        <artifactId>cache-api</artifactId>
        <version>1.0.0.redhat-1</version>
    </dependency>

10.2.2. オプション 2: 必要なファイルのクラスパスへの追加

Maven を使用しない場合、必要な jar ファイルが実行時にクラスパスに存在する必要があります。実行時にこれらのファイルが利用できるようにするには、jar ファイルの直接埋め込み、実行時の指定、またはアプリケーションのデプロイに使用されるコンテナーへの追加のいずれかを行います。

埋め込みモード

  1. Red Hat カスタマーポータルから Red Hat JBoss Data Grid 7.1.0 Library をダウンロードします。
  2. ダウンロードしたアーカイブをローカルディレクトリーで展開します。
  3. 以下のファイルを見つけます。

    • jboss-datagrid-7.1.0-library/infinispan-embedded-8.4.0.Final-redhat-2.jar
    • jboss-datagrid-7.1.0-library/lib/cache-api-1.0.0.redhat-1.jar
  4. 実行時に両方の jar ファイルがクラスパス上にあるようにします。

リモートモード

  1. Red Hat カスタマーポータルから Red Hat JBoss Data Grid 7.1.0 Hot Rod Java Client をダウンロードします。
  2. ダウンロードしたアーカイブをローカルディレクトリーで展開します。
  3. 以下のファイルを見つけます。

    • jboss-datagrid-7.1.0-remote-java-client/infinispan-remote-8.4.0.Final-redhat-2.jar
    • jboss-datagrid-7.1.0-remote-java-client/lib/cache-api-1.0.0.redhat-1.jar
  4. 実行時に両方の jar ファイルがクラスパス上にあるようにします。

10.3. ローカルキャッシュの作成

以下の手順にしたがうと、JCache API 仕様の定義どおりにデフォルトの設定オプションを使用して簡単にローカルキャッシュを作成できます。

import javax.cache.*;
import javax.cache.configuration.*;

// Retrieve the system wide cache manager
CacheManager cacheManager = Caching.getCachingProvider().getCacheManager();
// Define a named cache with default JCache configuration
Cache<String, String> cache = cacheManager.createCache("namedCache",
      new MutableConfiguration<String, String>());
警告

デフォルトでは、データは storeByValue として保存されるよう JCache API によって指定されるため、キャッシュへの操作の外部となるオブジェクト状態の変異はキャッシュに保存されたオブジェクトには影響しません。JBoss Data Grid では、シリアライズやマーシャリングを使用してキャッシュに保存するコピーを作成し、これにより仕様に準拠します。そのため、デフォルトの JCache 設定を Infinispan で使用する場合、保存するデータはマーシャル可能である必要があります。

この代わりに、参照でデータを格納するよう JCache を設定することもできます。これには、以下を呼び出します。

Cache<String, String> cache = cacheManager.createCache("namedCache",
      new MutableConfiguration<String, String>().setStoreByValue(false));

10.3.1. ライブラリーモード

ライブラリーモードでは、CachingProvider.getCacheManagerURL パラメーターで設定ファイルの場所を指定して CacheManager を設定することができます。これにより、設定ファイルでクラスター化されたキャッシュを定義する機会が与えられ、キャッシュの名前を CacheManager.getCache メソッドに渡して事前設定されたメソッドへの参照を取得できます。これ以外の場合は、CacheManager.createCache から作成されたローカルキャッシュのみを使用できます。

10.3.2. クライアントサーバーモード

リモート CacheManager のクライアントサーバーモードに固有する設定は、CachingProvider.getCacheManagerproperties パラメーターを使用して標準の Hot Rod クライアントプロパティーを渡して実行されます。参照されるリモートサーバーは稼働中である必要があり、リクエストを受信できなければなりません。

指定がない場合は、デフォルトのアドレスとポートが使用されます (127.0.0.1:11222)。さらに、ライブラリーモードとは異なり、キャッシュの参照が初めて取得されたときにキャッシュを内部で登録するために CacheManager.createCache を使用する必要があります。後続のクエリーは、CacheManager.getCache を使用して実行できます。

10.4. データの格納および読み出し

JCache API は java.util.Map または java.util.concurrent.ConcurrentMap を拡張しませんが、キーバリュー API を提供し、データを保存および読み出します。

import javax.cache.*;
import javax.cache.configuration.*;

CacheManager cacheManager = Caching.getCachingProvider().getCacheManager();
Cache<String, String> cache = cacheManager.createCache("namedCache",
      new MutableConfiguration<String, String>());
cache.put("hello", "world"); // Notice that javax.cache.Cache.put(K) returns void!
String value = cache.get("hello"); // Returns "world"

標準の java.util.Map とは異なり、javax.cache.Cache には put および getAndPut と呼ばれる 2 つの基本的な put メソッドが含まれます。put は void を返し、getAndPut はキーに関連する以前の値を返します。JCache では javax.cache.Cache.getAndPut(K)java.util.Map.put(K) と同等になります。

ヒント

JCache API はスタンドアロンのキャッシングのみに対応しますが、永続ストアでプラグ可能で、クラスターや分散を考慮して設計されています。javax.cache.Cache が 2 つの put メソッドを提供する理由は、標準の java.util.Map put コールはインプリメンターに以前の値の計算を強制するためです。永続ストアが使用された場合またはキャッシュが分散された場合、以前の値を戻す操作はコストが高くなる可能性があり、ユーザーは多くの場合で戻り値を使用せずに標準の java.util.Map.put(K) を呼び出します。そのため、JCache ユーザーは戻り値が関係するかどうかを考慮する必要があります。以前の値を返す場合は、 javax.cache.Cache.getAndPut(K) を呼び出す必要があります。その他の場合は java.util.Map.put(K) を呼び出して、コストが高くなる可能性がある以前の値を戻す操作を行わないようにします。

10.5. java.util.concurrent.ConcurrentMap API と javax.cache.Cache API の比較

以下は、java.util.concurrent.ConcurrentMap API および javax.cache.Cache API によって提供されるデータ操作 API の簡単な比較になります。

表10.1 java.util.concurrent.ConcurrentMap と javax.cache.Cache の比較

操作java.util.concurrent.ConcurrentMap<K,V>javax.cache.Cache<K,V>

格納し、戻り値はなし。

該当なし

void put(K key)

格納し、以前の値を返す。

V put(K key)
V getAndPut(K key)

存在しない場合は格納。

V putIfAbsent(K key, V Value)
boolean putIfAbsent(K key, V value)

読み出し

V get(Object key)
V get(K key)

存在する場合は削除。

V remove(Object key)
boolean remove(K key)

削除し、以前の値を返す。

V remove(Object key)
V getAndRemove(K key)

条件を削除。

boolean remove(Object key, Object value)
boolean remove(K key, V oldValue)

存在する場合は置き換え。

V replace(K key, V value)
boolean replace(K key, V value)

置き換え、以前の値を返す。

V replace(K key, V value)
V getAndReplace(K key, V value)

条件を置き換え。

boolean replace(K key, V oldValue, V newValue)
boolean replace(K key, V oldValue, V newValue)

2 つの API を比較すると、JCache はコストの高いネットワークの操作や IO 操作を避けるために以前の値を返さないようにします。これは、JCache API の設計で最も重要な原則です。実際に、 分散キャッシュでは計算のコストが高いため、java.util.concurrent.ConcurrentMap に存在し、javax.cache.Cache には存在しない操作があります。唯一の例外が、キャッシュのコンテンツでの繰り返しです。

表10.2 戻り値を回避する javax.cache.Cache

操作java.util.concurrent.ConcurrentMap<K,V>javax.cache.Cache<K,V>

キャッシュサイズの計算。

int size()

該当なし

キャッシュのすべてのキーを返す。

Set<K> keySet()

該当なし

キャッシュのすべての値を返す。

Collection<V> values()

該当なし

キャッシュのすべてのエントリーを返す。

Set<Map.Entry<K, V>> entrySet()

該当なし

キャッシュでの繰り返し。

keySet、values、または entrySet での use iterator() メソッドの使用。

Iterator<Cache.Entry<K, V>> iterator()

10.6. JCache インスタンスのクラスター化

標準の API を使用したクラスターキャッシュの可能性を提供するために、Red Hat JBoss Data Grid 実装は仕様を超えた機能を提供します。キャッシュをレプリケートするために次のような設定ファイルがあるとします。

<namedCache name="namedCache">
    <clustering mode="replication"/>
</namedCache>

次のコードを使用するとキャッシュのクラスターを作成することができます。

import javax.cache.*;
import java.net.URI;

// For multiple cache managers to be constructed with the standard JCache API
// and live in the same JVM, either their names, or their classloaders, must
// be different.
// This example shows how to force their classloaders to be different.
// An alternative method would have been to duplicate the XML file and give
// it a different name, but this results in unnecessary file duplication.
ClassLoader tccl = Thread.currentThread().getContextClassLoader();
CacheManager cacheManager1 = Caching.getCachingProvider().getCacheManager(
      URI.create("infinispan-jcache-cluster.xml"), new TestClassLoader(tccl));
CacheManager cacheManager2 = Caching.getCachingProvider().getCacheManager(
      URI.create("infinispan-jcache-cluster.xml"), new TestClassLoader(tccl));

Cache<String, String> cache1 = cacheManager1.getCache("namedCache");
Cache<String, String> cache2 = cacheManager2.getCache("namedCache");

cache1.put("hello", "world");
String value = cache2.get("hello"); // Returns "world" if clustering is working

// --

public static class TestClassLoader extends ClassLoader {
  public TestClassLoader(ClassLoader parent) {
     super(parent);
  }
}

10.7. 複数のキャッシュプロバイダー

キャッシュプロバイダーはオーバーロードされた getCachingProvider() メソッドを使用して javax.cache.Caching から取得されます。デフォルトでは、このメソッドはクラスパスで見つかった META-INF/services/javax.cache.spi.CachingProvider ファイルをロードしようとします。1 つのファイルが見つかった場合、そのファイルが使用中のキャッシュプロバイダーを判断します。

複数のキャッシュプロバイダーがある場合、以下のメソッドの 1 つを使用して特定のプロバイダーを選択します。

  • getCachingProvider(ClassLoader classLoader)
  • getCachingProvider(String fullyQualifiedClassName)

別のキャッシュプロバイダーに変更する場合、デフォルトのクラスパスにそのプロバイダーが存在することを確認してください。または、上記のメソッドの 1 つを使用してそのプロバイダーを選択してください。

検出されたまたはCaching クラスによってロードされた javax.cache.spi.CachingProviders は内部レジストリーで維持されます。同じキャッシュプロバイダーの後続リクエストは、キャッシュプロバイダー実装をリロードまたは再インスタンス化する代わりに、このレジストリーから返されます。現在のキャッシュプロバイダーを表示するには、以下のいずれかのメソッドを使用します。

  • getCachingProviders() - デフォルトクラスローダーのキャッシュプロバイダーのリストを提供します。
  • getCachingProviders(ClassLoader classLoader) - 指定されたクラスローダーのキャッシュプロバイダーのリストを提供します。

第11章 ヘルスチェック API

11.1. ヘルスチェック API

ヘルスチェック API は、クラスターとその中に含まれるキャッシュの正常性を監視できるようにします。クラスターやキャッシュの状態を報告するクエリーのメソッドを説明するため、この情報は特にクラウド環境で作業を行う場合に重要になります。

この API は以下の情報を公開します。

  • クラスターの名前。
  • クラスターにあるマシンの数。
  • 以下の 3 つの値の 1 つで表される、クラスターまたはキャッシュの総合的な状態。

    • Healthy - エンティティーは正常です。
    • Unhealthy - エンティティーは正常ではありません。この値は、1 つ以上のキャッシュがデグレード状態であることを表しています。
    • Rebalancing - このエンティティーは運用可能ですが、再調整中です。この値が報告されたらクラスターノードを調整してはなりません。
  • 各キャッシュの状態。
  • サーバーログの末尾。

プログラムを使用しないでヘルスチェック API を使用する方法については、JBoss Data Grid の 管理および設定ガイド を参照してください。

11.2. プログラムを使用したヘルスチェック API へのアクセス

ライブラリーモードでは、プログラムを使用した場合のみヘルスチェック API にアクセス可能で、embeddedCacheManager.getHealth() メソッドを呼び出してアクセスすることができます。

このメソッドは、以下のメソッドにアクセスできる org.infinispan.health.Health オブジェクトを返します。

  • getClusterHealth() - ClusterHealth オブジェクトを返し、以下のメソッドにアクセスできます。

    • getNumberOfNodes() - クラスターの全ノード数を表す int 型を返します。
    • getNodeNames() - クラスターにあるすべてのノードの名前が含まれる List<String> を返します。
    • getClusterName() - クラスターの名前が含まれる String を返します。
    • getHealthStatus() - クラスターの正常性が含まれる HealthStatus が返され、正常性は HEALHTYUNHEALTHY、または REBALANCING で報告されます。
  • getHostInfo() - HostInfo オブジェクトを返し、以下のメソッドにアクセスできます。

    • getNumberOfCpus() - ホストにインストールされた CPU の数が含まれる int 型を返します。
    • getTotalMemoryKb() - KB 単位のメモリーの合計が含まれる long 型を返します。
    • getFreeMemoryInKb() - KB 単位の空きメモリーが含まれる long 型を返します。
  • getCacheHealth() - List<CacheHealth> を返します。各 CacheHealth オブジェクトは以下のメソッドにアクセスできます。

    • getCacheName() - キャッシュの名前が含まれる String を返します。
    • getStatus() - キャッシュの正常性が含まれる HealthStatus が返され、正常性は HEALHTYUNHEALTHY、または REBALANCING で報告されます。

第12章 REST API

12.1. REST インターフェース

Red Hat JBoss Data Grid は REST インターフェースを提供し、クライアントとサーバー間の疎結合を可能にします。REST インターフェースの主な利点は既存の HTTP クライアントとの相互運用性や、php クライアントへの接続の提供です。さらに、特定のバージョンのクライアントライブラリーやバインディングが必要ありません。

REST API によってオーバーヘッドが発生します。REST コールの理解や作成に REST クライアントまたはカスタムコードが必要になります。パフォーマンスに懸念がある場合は Hot Rod クライアントの使用が推奨されます。

Red Hat JBoss Data Grid の REST API と対話するには、HTTP クライアントライブラリーのみが必要です。Java の場合は、Apache HTTP Commons Client や java.net API になります。

重要

以下の例は、REST セキュリティーが REST コネクターで無効になっていることを前提としています。REST セキュリティーを削除するには、コネクターから authentication および encryption 要素を削除します。

12.2. Ruby クライアントコード

以下のコードは ruby を使用して Red Hat JBoss Data Grid の REST API と対話する例です。提供されたコードは特別なライブラリーを必要とせず、標準的な net/HTTP ライブラリーを使用できます。

Ruby での REST API の使用

require 'net/http'

http = Net::HTTP.new('localhost', 8080)

#An example of how to create a new entry

http.post('/rest/MyData/MyKey', 'DATA_HERE', {"Content-Type" => "text/plain"})

#An example of using a GET operation to retrieve the key

puts http.get('/rest/MyData/MyKey').body

#An Example of using a PUT operation to overwrite the key

http.put('/rest/MyData/MyKey', 'MORE DATA', {"Content-Type" => "text/plain"})

#An example of Removing the remote copy of the key

http.delete('/rest/MyData/MyKey')

#An example of creating binary data

http.put('/rest/MyImages/Image.png', File.read('/Users/michaelneale/logo.png'), {"Content-Type" => "image/png"})

12.3. Ruby の例で JSON を使用

前提条件

ruby で JavaScript Object Notation (JSON) を使用して Red Hat JBoss Data Grid の REST インターフェースと対話するには、JSON Ruby ライブラリーをインストールし (プラットフォームのパッケージマネージャーまたは Ruby ドキュメンテーションを参照)、以下のコードを使用して要件を宣言します。

require 'json'

Ruby での JSON の使用

以下のコードは、Ruby で JavaScript Object Notation (JSON) と PUT 関数を使用して特定のデータ (この場合は、個人の名前と年齢) を送信する例です。

data = {:name => "michael", :age => 42 }
http.put('/rest/Users/data/0', data.to_json, {"Content-Type" => "application/json"})

12.4. Python クライアントコード

以下のコードは Python を使用して Red Hat JBoss Data Grid の REST API と対話する例です。提供されたコードは、標準的な HTTP ライブラリーのみを必要とします。

Python での REST API の使用

import httplib

#How to insert data

conn = httplib.HTTPConnection("localhost:8080")
data = "SOME DATA HERE \!" #could be string, or a file...
conn.request("POST", "/rest/default/0", data, {"Content-Type": "text/plain"})
response = conn.getresponse()
print response.status

#How to retrieve data

import httplib
conn = httplib.HTTPConnection("localhost:8080")
conn.request("GET", "/rest/default/0")
response = conn.getresponse()
print response.status
print response.read()

12.5. Java クライアントコード

以下のコードは Java を使用して Red Hat JBoss Data Grid の REST API と対話する例です。

インポートの定義

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.io.OutputStreamWriter;
import java.net.HttpURLConnection;
import java.net.URL;

文字列値をキャッシュに追加

// Using the imports in the previous example
public class RestExample {

   /**
    * Method that puts a String value in cache.
    * @param urlServerAddress
    * @param value
    * @throws IOException
    */

   public void putMethod(String urlServerAddress, String value) throws IOException {
      System.out.println("----------------------------------------");
      System.out.println("Executing PUT");
      System.out.println("----------------------------------------");
      URL address = new URL(urlServerAddress);
      System.out.println("executing request " + urlServerAddress);
      HttpURLConnection connection = (HttpURLConnection) address.openConnection();
      System.out.println("Executing put method of value: " + value);
      connection.setRequestMethod("PUT");
      connection.setRequestProperty("Content-Type", "text/plain");
      connection.setDoOutput(true);

      OutputStreamWriter outputStreamWriter = new OutputStreamWriter(connection.getOutputStream());
      outputStreamWriter.write(value);

      connection.connect();
      outputStreamWriter.flush();

      System.out.println("----------------------------------------");
      System.out.println(connection.getResponseCode() + " " + connection.getResponseMessage());
      System.out.println("----------------------------------------");

      connection.disconnect();
   }

以下のコードは、Red Hat JBoss Data Grid REST インターフェースと対話するために Java を使用して URL に指定された値を読み取るメソッドの例です。

キャッシュから文字列値を取得

    // Continuation of RestExample defined in previous example
		/**
    * Method that gets an value by a key in url as param value.
    * @param urlServerAddress
    * @return String value
    * @throws IOException
    */
   public String getMethod(String urlServerAddress) throws IOException {
      String line = new String();
      StringBuilder stringBuilder = new StringBuilder();

      System.out.println("----------------------------------------");
      System.out.println("Executing GET");
      System.out.println("----------------------------------------");

      URL address = new URL(urlServerAddress);
      System.out.println("executing request " + urlServerAddress);

      HttpURLConnection connection = (HttpURLConnection) address.openConnection();
      connection.setRequestMethod("GET");
      connection.setRequestProperty("Content-Type", "text/plain");
      connection.setDoOutput(true);

      BufferedReader bufferedReader = new BufferedReader(new InputStreamReader(connection.getInputStream()));

      connection.connect();

      while ((line = bufferedReader.readLine()) != null) {
         stringBuilder.append(line + '\n');
      }

      System.out.println("Executing get method of value: " + stringBuilder.toString());

      System.out.println("----------------------------------------");
      System.out.println(connection.getResponseCode() + " " + connection.getResponseMessage());
      System.out.println("----------------------------------------");

      connection.disconnect();

      return stringBuilder.toString();
   }

Java Main メソッドの使用

    // Continuation of RestExample defined in previous example
		/**
    * Main method example.
    * @param args
    * @throws IOException
    */
    public static void main(String[] args) throws IOException {
        //Note that the cache name is "cacheX"
        RestExample restExample = new RestExample();
        restExample.putMethod("http://localhost:8080/rest/cacheX/1", "Infinispan REST Test");
        restExample.getMethod("http://localhost:8080/rest/cacheX/1");
    }
}

12.6. REST インターフェースの使用

12.6.1. REST インターフェースの使用

REST インターフェースを Red Hat JBoss Data Grid のリモートクライアントサーバーモードで使用すると、以下の操作を実行できます。

  • データの追加
  • データの取得
  • データの削除

12.6.2. REST を使用したデータの追加

12.6.2.1. REST を使用したデータの追加

Red Hat JBoss Data Grid の REST インターフェースで、次のメソッドを使用してデータをキャッシュに追加します。

  • HTTP PUT メソッド
  • HTTP POST メソッド

PUT および POST メソッドが使用される場合、要求の本文には、ユーザーにより追加された情報を含むこのデータが含まれます。

PUT および POST メソッドの両方には、Content-Type ヘッダーが必要です。

12.6.2.2. PUT /{cacheName}/{cacheKey} について

提供された URL フォームからの PUT 要求により、提供されたキーを使用して要求本文からのペイロードがターゲットキャッシュに配置されます。このタスクが正常に完了するには、ターゲットキャッシュがサーバーに存在する必要があります。

例として、以下の URL では、値 hr がキャッシュ名であり、payRoll%2F3 がキーです。値 %2F は、/ がキーで使用されたことを示します。

http://someserver/rest/hr/payRoll%2F3

既存のデータは置き換えられ、更新が必要な場合は Time-To-Live 値および Last-Modified 値が更新されます。

注記

以下の引数を使用してサーバーが起動された場合は、キーの / を表す値 %2F を含むキャッシュキー (提供された例を参照) を正常に実行できます。

-Dorg.apache.tomcat.util.buf.UDecoder.ALLOW_ENCODED_SLASH=true

12.6.2.3. POST /{cacheName}/{cacheKey} について

提供された URL フォームからの POST メソッドにより、提供されたキーを使用して (要求本文からの) ペイロードがターゲットキャッシュに配置されます。ただし、POST メソッドでは、値がキャッシュ/キーに存在する場合に、HTTP CONFLICT ステータスが返され、内容が更新されません。

12.6.3. REST を使用したデータの取得

12.6.3.1. REST を使用したデータの取得

Red Hat JBoss Data Grid の REST インターフェースで、次のメソッドを使用してキャッシュからデータを取得します。

  • HTTP GET メソッド
  • HTTP HEAD メソッド

12.6.3.2. GET /{cacheName}/{cacheKey} について

GET メソッドは、指定の cacheName に存在し、関連するキーに一致するデータを応答の本文として返します。Content-Type ヘッダーは、データのタイプを提供します。ブラウザーはキャッシュに直接アクセスできます。

各エントリーに対して、要求された URL でデータの状態を示す Last-Modified ヘッダーとともに一意のエンティティータグ (ETag) が返されます。ETag により、ブラウザー (および他のクライアント) は、(帯域幅を節約するために) データが変更された場合のみデータを要求できます。ETag は、HTTP 標準の一部であり、Red Hat JBoss Data Grid によりサポートされます。

格納されたコンテンツのタイプは、返されたタイプです。例として、文字列が格納された場合は、文字列が返されます。シリアライズされた形式で格納されたオブジェクトは、手動でデシリアライズする必要があります。

12.6.3.3. HEAD /{cacheName}/{cacheKey} について

HEAD メソッドは、GET メソッドと同様に動作しますが、コンテンツを返しません (ヘッダーフィールドが返されます)。

12.6.4. REST を使用したデータの削除

12.6.4.1. REST を使用したデータの削除

REST インターフェースを使用して Red Hat JBoss Data Grid からデータを削除するには、HTTP DELETE メソッドを使用してキャッシュからデータを取得します。DELETE メソッドは以下を実行できます。

  • キャッシュエントリー/値を削除します (DELETE /{cacheName}/{cacheKey})
  • キャッシュからすべてのエントリーを削除します (DELETE /{cacheName})

12.6.4.2. DELETE /{cacheName}/{cacheKey} について

DELETE メソッドがこのコンテキスト (DELETE /{cacheName}/{cacheKey}) で使用された場合、指定のキーのキャッシュからキー/値を削除します。

12.6.4.3. DELETE /{cacheName} について

このコンテキスト (DELETE /{cacheName}) では、DELETE メソッドが名前付きキャッシュ内のすべてのエントリーを削除します。正常な DELETE 操作後に、HTTP ステータスコード 200 が返されます。

12.6.4.4. バックグラウンド削除操作

performAsync ヘッダーの値を true に設定して、削除操作がバックグラウンドで続行される状態で値がすぐに返されるようにします。

12.6.5. REST インターフェース操作ヘッダー

以下の表は、Red Hat JBoss Data Grid REST インターフェースに含まれるヘッダーを示しています。

表12.1 ヘッダータイプ

ヘッダー必須/任意デフォルト値説明

Content-Type

必須

-

-

Content-Type が application/x-java-serialized-object に設定された場合は、Java オブジェクトとして格納されます。

performAsync

任意

True/False

-

true に設定された場合は、すぐに返され、独自にクラスターにデータがレプリケートされます。この機能は、大量のデータ挿入と大きいクラスターを取り扱う場合に役に立ちます。

timeToLiveSeconds

任意

数値 (正の値および負の値)

-1 (この値により、timeToLiveSeconds の直接的な結果としてエクスパレーションが回避されます。このデフォルト値よりも、他の場所で設定されたエクスパレーションの値が優先されます。)

該当するエントリーが自動的に削除されるまでの秒数を反映します。timeToLiveSeconds に負の値を設定すると、デフォルト値と同じ結果が提供されます。

maxIdleTimeSeconds

任意

数値 (正の値および負の値)

-1 (この値により、maxIdleTimeSeconds の直接的な結果としてエクスパレーションが回避されます。このデフォルト値よりも、他の場所で設定されたエクスパレーションの値が優先されます。)

エントリーが自動的に削除される場合の、最後の使用時以降の秒数を含みます。負の値を渡すと、デフォルト値と同じ結果が提供されます。

timeToLiveSeconds ヘッダーおよび maxIdleTimeSeconds ヘッダーには以下の組み合わせを設定できます。

  • timeToLiveSeconds ヘッダーと maxIdleTimeSeconds ヘッダーの両方に値 0 が割り当てられた場合、キャッシュは XML またはプログラムを使用して設定されたデフォルトの timeToLiveSeconds 値と maxIdleTimeSeconds 値を使用します。
  • maxIdleTimeSeconds ヘッダー値のみが 0 に設定された場合は、timeToLiveSeconds 値をパラメーターとして渡す必要があります (パラメーターが存在しない場合はデフォルトの -1 )。さらに maxIdleTimeSeconds パラメーター値は、デフォルトで XML またはプログラムを使用して設定された値に設定されます。
  • timeToLiveSeconds ヘッダー値のみが 0 に設定された場合は、エクスパレーションが即座に発生し、maxIdleTimeSeconds 値がパラメーターとして渡された値に設定されます (パラメーターが提供されなかった場合はデフォルトの -1)。

ETag ベースのヘッダー

各 REST インターフェースエントリーに対して、提供された URL でデータの状態を示す Last-Modified ヘッダーとともに、ETag (エンティティータグ) が返されます。ETag は、帯域幅を節約するためにデータが変更された場合にのみ、データを要求する HTTP 操作で使用されます。以下のヘッダーは、ETag (エンティティータグ) ベースの楽観的ロックをサポートします。

表12.2 エンティティータグ関連ヘッダー

Headerアルゴリズム説明

If-Match

If-Match = "If-Match" ":" ( "*" | 1#entity-tag )

-

(リソースから以前に取得された) 指定されたエンティティーが最新であることを確認するために、関連するエンティティータグのリストとともに使用されます。

If-None-Match

 

-

(リソースから以前に取得された) 指定されたエンティティーが最新でないことを確認するために、関連するエンティティータグのリストとともに使用されます。この機能により、必要なときに、最小のトランザクションオーバーヘッドで、キャッシュされた情報が効率的に更新されます。

If-Modified-Since

If-Modified-Since = "If-Modified-Since" ":" HTTP-date

If-Modified-Since: Sat, 29 Oct 1994 19:43:31 GMT

要求されたバリアントの最終変更日時と、提供された時間および日付の値とを比較します。指定された日時以降に要求されたバリアントが変更されなかった場合は、エンティティーの代わりに 304 (未変更) 応答がメッセージ本文なしで返されます。

If-Unmodified-Since

If-Unmodified-Since = "If-Unmodified-Since" ":" HTTP-date

If-Unmodified-Since: Sat, 29 Oct 1994 19:43:31 GMT

要求されたバリアントの最終変更日時と、提供された時間および日付の値とを比較します。指定された日時以降に要求されたリソースが変更されなかった場合は、指定された操作が実行されます。指定された日時以降に要求されたリソースが変更された場合は、操作が実行されず、エンティティーの代わりに 412 (事前条件失敗) 応答が返されます。

第13章 Hot Rod インターフェース

13.1. Hot Rod について

Hot Rod は、Red Hat JBoss Data Grid で使用されるバイナリー TCP クライアントサーバープロトコルであり、Memcached などの他のクライアントサーバープロトコルの欠点を解消するために作成されました。

Hot Rod はサーバークラスターでフェイルオーバーを行い、トポロジーが変更されます。Hot Rod は、クラスタートポロジーに関する更新をクライアントに定期的に提供することによりこれを行います。

Hot Rod では、クライアントはパーティション化されたまたは分散された Red Hat JBoss Data Grid サーバークラスターで要求をスマートにルーティングできます。これを行うために、Hot Rod ではクライアントはキーを格納するパーティションを決定し、キーがあるサーバーと直接通信できます。この機能は、クライアントでクラスタートポロジーを更新する Hot Rod に依存し、クライアントはサーバーと同じ一貫性のあるハッシュアルゴリズムを使用します。

Red Hat JBoss Data Grid には、Hot Rod プロトコルを実装するサーバーモジュールが含まれます。Hot Rod プロトコルを使用すると、他のテキストベースのプロトコルに比べて、クライアントとサーバーの対話が高速になり、クライアントが負荷分散、フェイルオーバー、およびデータ場所運用に関する決定を行えるようになります。

13.2. Hot Rod ヘッダー

13.2.1. Hot Rod ヘッダーデータタイプ

Red Hat JBoss Data Grid の Hot Rod で使用されたすべてのキーおよび値はバイトアレイとして格納されます。ただし、特定のヘッダー値 (REST や Memcached の値) は以下のデータタイプを使用して格納されます。

表13.1 ヘッダーデータタイプ

データタイプSize説明

vInt

1 - 5 バイト。

符号なし可変長整数値。

vLong

1-9 バイト。

符号なし可変長 long 値。

string

-

文字列は常に UTF-8 エンコーディングを使用して表されます。

13.2.2. 要求ヘッダー

Hot Rod を使用して Red Hat JBoss Data Grid にアクセスする場合、要求ヘッダーの内容は以下のものから構成されます。

表13.2 要求ヘッダーフィールド

フィールド名データタイプ/サイズ説明

Magic

1 バイト

ヘッダーが要求ヘッダーまたは応答ヘッダーであるかどうかを示します。

Message ID

vLong

メッセージ ID を含みます。この一意の ID は、要求に応答するときに使用されます。これにより、Hot Rod クライアントは非同期でプロトコルを実装できるようになります。

Version

1 バイト

Hot Rod サーバーバージョンを含みます。

Opcode

1 バイト

関連する操作コードを含みます。要求ヘッダー内でopcode には要求操作コードのみを含めることができます。

Cache Name Length

vInt

キャッシュ名の長さを格納します。キャッシュ名の長さが 0 に設定され、キャッシュ名に値が提供されない場合、操作はデフォルトのキャッシュと対話します。

Cache Name

string

指定された操作のターゲットキャッシュの名前を格納します。この名前は、キャッシュ設定ファイルの事前定義済みキャッシュの名前に一致する必要があります。

Flags

vInt

システムに渡されるフラグを表す可変長の数値を含みます。さらに多くのバイトを読み取る必要があるかどうかを決定するために使用される最大ビットを除き、各ビットはフラグを表します。各フラグを表すためにビットを使用すると、フラグの組み合わせが連結された状態で表されます。

Client Intelligence

1 バイト

サーバーに対するクライアント機能を示す値を含みます。

Topology ID

vInt

クライアントの最後の既知なビュー ID を含みます。基本的なクライアントはこのフィールドに値 0 を提供します。トポロジーまたはハッシュ情報をサポートするクライアントは、サーバーが現在のビュー ID に応答するまで値 0 (新しいビュー ID が現在のビュー ID を置き換えるためにサーバーにより返されるまで使用されます) を提供します。

13.2.3. 応答ヘッダー

Hot Rod を使用して Red Hat JBoss Data Grid にアクセスする場合、応答ヘッダーの内容は以下のものから構成されます。

表13.3 応答ヘッダーフィールド

フィールド名データタイプ説明

Magic

1 バイト

ヘッダーが要求または応答ヘッダーであるかどうかを示します。

Message ID

vLong

メッセージ ID を含みます。この一意の ID は、応答を元の要求とペアにするために使用されます。これにより、Hot Rod クライアントは非同期でプロトコルを実装できるようになります。

Opcode

1 バイト

関連する操作コードを含みます。応答ヘッダー内で opcode には応答操作コードのみを含めることができます。

Status

1 バイト

応答のステータスを表すコードを含みます。

Topology Change Marker

1 バイト

応答がトポロジー変更情報に含まれるかどうかを示すマーカーバイトを含みます。

13.2.4. トポロジー変更ヘッダー

13.2.4.1. トポロジー変更ヘッダー

Hot Rod を使用して Red Hat JBoss Data Grid にアクセスする場合は、応答ヘッダーが、異なるトポロジーまたはハッシュ分散を区別できるクライアントを探すことによりクラスターまたはビューフォーメーションの変更に応答します。Hot Rod サーバーは現在の topology ID と、クライアントにより送信された topology ID を比較し、2 つの値が異なる場合は、新しい topology ID を返します。

13.2.4.2. トポロジー変更マーカー値

以下は、応答ヘッダー内の Topology Change Marker フィールドの有効な値のリストです。

表13.4 Topology Change Marker フィールド値

Value説明

0

トポロジーの変更情報は追加されません。

1

トポロジーの変更情報が追加されます。

13.2.4.3. トポロジー認識クライアントのトポロジー変更ヘッダー

トポロジーの変更がサーバーにより返された場合、トポロジー認識クライアントに送信された応答ヘッダーには以下の要素が含まれます。

表13.5 トポロジー変更ヘッダーフィールド

応答ヘッダーフィールドデータタイプ/サイズ説明

Response Header with Topology Change Marker

variable

応答ヘッダー を参照してください。

Topology ID

vInt

トポロジー ID。

Num Servers in Topology

vInt

クラスターで稼働している Hot Rod サーバーの数を含みます。一部のノードのみが Hot Rod サーバーを稼働している場合に、この値は、クラスター全体のサブセットになることがあります。

mX: Host/IP Length

vInt

個別クラスターメンバーのホスト名または IP アドレスの長さを含みます。可変長により、この要素にはホスト名、IPv4、および IPv6 アドレスを含めることができます。

mX: Host/IP Address

string

個別クラスターメンバーのホスト名または IP アドレスを含みます。Hot Rod クライアントはこの情報を使用して個別クラスターメンバーにアクセスします。

mX: Port

符号なしショート。2 バイト

クラスターメンバーと通信するために Hot Rod クライアントが使用するポートを含みます。

トポロジー内の各サーバーに対して、接頭辞 mX の 3 つのエントリーが繰り返されます。トポロジーの情報フィールド内の最初のサーバーには接頭辞 m1 が付けられ、X の値が num servers in topology フィールドで指定されたサーバーの数と等しくなるまで、各追加サーバーに対して数値が 1 つずつ増分されます。

13.2.4.4. ハッシュ配布認識クライアントのトポロジー変更ヘッダー

トポロジーの変更がサーバーにより返された場合、クライアントに送信された応答ヘッダーには以下の要素が含まれます。

表13.6 トポロジー変更ヘッダーフィールド

フィールドデータタイプ/サイズ説明

Response Header with Topology Change Marker

variable

応答ヘッダー を参照してください。

Topology ID

vInt

トポロジー ID。

Number Key Owners

符号なしショート、2 バイト

配布された各キーに対してグローバルに設定されたコピーの数を含みます。配布がキャッシュで設定されていない場合は、値 0 を含みます。

Hash Function Version

1 バイト

使用中のハッシュ機能へのポインターを含みます。配布がキャッシュで設定されていない場合は、値 0 を含みます。

Hash Space Size

vInt

ハッシュコード生成に関連するすべてのモジュール計算のために JBoss Data Grid により使用されるモジュールを含みます。クライアントはこの情報を使用して正しいハッシュ計算をキーに適用します。配布がキャッシュで設定されていない場合は、値 0 を含みます。

Number servers in topology

vInt

クラスター内で稼働している [path]_ Hot Rod_ サーバーの数を含みます。一部のノードのみが [path]_ Hot Rod_ サーバーを稼働している場合に、この値は、クラスター全体のサブセットになることがあります。また、この値はヘッダーに含まれるホストとポートのペアの数を表します。

Number Virtual Nodes Owners

vInt

設定された仮想ノードの数を含みます。仮想ノードが設定されていない場合、または配布がキャッシュで設定されていない場合は、値 0 を含みます。

mX: Host/IP Length

vInt

個別クラスターメンバーのホスト名または [path]_ IP_ アドレスの長さを含みます。可変長により、この要素にはホスト名、[path]_ IPv4_ および [path]_ IPv6_ アドレスを含めることができます。

mX: Host/IP Address

string

個別クラスターメンバーのホスト名または [path]_ IP_ アドレスを含みます。[path]_ Hot Rod_ クライアントはこの情報を使用して個別クラスターメンバーにアクセスします。

mX: Port

符号なしショート、2 バイト

クラスターメンバーと通信するために [path]_ Hot Rod_ クライアントが使用するポートを含みます。

Hash Function Version

1 バイト

0x03

Number of Segments in Topology

vInt

トポロジーの合計セグメント数。

Number of Owners in Segment

1 バイト

所有者の数は 0、1、または 2 のいずれか。

First Wwner’s Index

vInt

全ノードのリストにおけるこの所有者の位置。このセグメントの所有者の数が 1 または 2 である場合のみ含まれます。

Second Owner’s Index

vInt

全ノードのリストにおけるこの所有者の位置。このセグメントの所有者の数が 2 である場合のみ含まれます。

注記

セグメントごとに所有者の数を 3 以上にすることもできますが、Hot Rod プロトコルは効率性の理由で送信する所有者の数を制限します。

トポロジー内の各サーバーに対して、接頭辞 mX の 3 つのエントリーが繰り返されます。トポロジーの情報フィールド内の最初のサーバーには接頭辞 m1 が付けられ、X の値が num servers in topology フィールドで指定されたサーバーの数と等しくなるまで、各追加サーバーに対して数値が 1 つずつ増分されます。

13.3. Hot Rod 操作

13.3.1. Hot Rod 操作

以下は、Hot Rod プロトコル 1.3 を使用して Red Hat JBoss Data Grid と対話する場合に有効な操作です。

  • Authenticate
  • AuthMechList
  • BulkGet
  • BulkKeysGet
  • Clear
  • ContainsKey
  • Exec
  • Get
  • GetAll
  • GetWithMetadata
  • GetWithVersion
  • IterationEnd
  • IterationNext
  • IterationStart
  • Ping
  • Put
  • PutAll
  • PutIfAbsent
  • Query
  • Remove
  • RemoveIfUnmodified
  • Replace
  • ReplaceIfUnmodified
  • Stats
  • Size
重要

RemoteCache API を使用して Hot Rod クライアントの Put 操作、PutIfAbsent 操作、Replace 操作、および ReplaceWithVersion 操作を呼び出す場合に、ライフスパンが 30 日よりも大きい値に設定されると、その値は UNIX 時間として処理され、1970 年 1 月 1 日以降の秒数を表します。

13.3.2. Hot Rod の Authenticate 操作

この操作の目的は、SASL を使用してクライアントをサーバーに対して認証することです。選択した mech によっては、認証プロセスが複数のステップの操作になることがあります。この操作が完了すると、接続が認証されます。

Authenticate 操作の要求形式には以下が含まれます。

表13.7 Authenticate 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Mech

文字列

認証用にクライアントによって選択された mech の名前が含まれる文字列。後続の呼び出しでは空になります。

Response length

vInt

SASL クライアント応答の長さ

Response data

バイトアレイ

SASL クライアント応答。

この操作の応答ヘッダーには以下のものが含まれます。

表13.8 Authenticate 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー。

Completed

バイト

さらに処理が必要な場合は 0、認証が完了した場合は 1 。

Challenge length

vInt

SASL サーバーチャレンジの長さ

Challenge data

バイトアレイ

SASL サーバーチャレンジ。

13.3.3. Hot Rod の AuthMechList 操作

この操作の目的は、サーバーによってサポートされる 有効な SASL 認証 mech のリストを取得することです。クライアントは優先される mech で Authenticate 要求を発行する必要があります。

AuthMechList 操作の要求形式には以下が含まれます。

表13.9 AuthMechList 操作の要求形式

フィールドデータタイプ説明

Header

変数

要求ヘッダー

この操作の応答ヘッダーには以下のものが含まれます。

表13.10 AuthMechList 操作の応答形式

フィールドデータタイプ説明

Header

変数

応答ヘッダー

Mech count

vInt

mech の数。

Mech

文字列

IANA で登録された形式 (GSSAPI、CRAM-MD5 など) で SASL mech の名前が含まれる文字列

Mech の値はサポートされる mech ごとに繰り返されます。

13.3.4. Hot Rod の BulkGet 操作

Hot Rod の BulkGet 操作は、以下の要求形式を使用します。

表13.11 BulkGet 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Entry Count

vInt

サーバーによって返される Red Hat JBoss Data Grid エントリーの最大数が含まれます。エントリーはキーと値のペアです。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.12 BulkGet 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー

More

vInt

ストリームからエントリーをさらに読み取る必要があるかどうかを示します。More1 に設定される一方で、More の値が 0 (ストリームの最後を示します) に設定されるまで追加のエントリーが続きます。

Key Length

vInt

キーの長さを含みます。

Key

バイトアレイ

キーの値を含みます。

Value Length

vInt

値の長さを含みます。

Value

バイトアレイ

値を含みます。

要求された各エントリーに対して、MoreKey SizeKeyValue Size、および Value エントリーが応答に追加されます。

13.3.5. Hot Rod の BulkKeysGet 操作

Hot Rod の BulkKeysGet 操作は、以下の要求形式を使用します。

表13.13 BulkKeysGet 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Scope

vInt

  • 0 = デフォルトのスコープ - このスコープは RemoteCache.keySet() メソッドにより使用されます。リモートキャッシュが分散キャッシュである場合は、サーバーによりマップ/削減操作が実行され、すべてのノードからすべてのキーが取得されます (トポロジー認識 Hot Rod クライアントはクラスター内の任意のノードへの要求を負荷分散できます)。それ以外の場合は、要求を受信するサーバーに対してローカルのキャッシュインスタンスからキーを取得します。キーはレプリケートされたキャッシュのすべてのノードで同じである必要があります。
  • 1 = グローバルスコープ - このスコープはデフォルトスコープと同じように動作します。
  • 2 = ローカルスコープ - リモートキャッシュが分散キャッシュである状況では、サーバーはマップ/削減操作を開始してすべてのノードからキーを取得しません。代わりに、要求を受け取るサーバーに対してローカルなキャッシュインスタンスからローカルなキーのみを取得します。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.14 BulkGetKeys 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー。

Response Status

1 バイト

0x00 = 成功 (データが続きます)。

More

1 バイト

ストリームからより多くのキーを読み取る必要があるかを表す 1 つのバイト。1 に設定されている場合はエントリーが続き、0 に設定されている場合はストリームの最後であり、読み取るエントリーが残っていません。

Key Length

vInt

キーの長さ

Key

バイトアレイ

取得されたキー

More

1 バイト

ストリームからより多くのエントリーを読み取る必要があるかどうかを表す 1 つのバイト。1 に設定された場合はエントリーが続きます。0 に設定された場合はストリームの最後であり、読み取るエントリーが残っていません。

Key Length および Key の値はキーごとに繰り返されます。

13.3.6. Hot Rod の Clear 操作

clear 操作の形式にはヘッダーのみが含まれます。

この操作に有効な応答ステータスは以下のとおりです。

表13.15 clear 操作の応答

Response Status説明

0x00

Red Hat JBoss Data Grid が正常に消去されました。

13.3.7. Hot Rod の ContainsKey 操作

Hot Rod の ContainsKey 操作は、以下の要求形式を使用します。

表13.16 ContainsKey 操作の要求形式

フィールドデータタイプ説明

Header

-

-

Key Length

vInt

キーの長さを含みます。Integer.MAX_VALUE のサイズよりも大きいサイズ (最大 5 バイト) であるため、vInt データタイプが使用されます。ただし、Java では単一のアレイサイズを Integer.MAX_VALUE よりも大きくすることはできません。結果として、この vIntInteger.MAX_VALUE の最大サイズに制限されます。

Key

バイトアレイ

キーを含みます (このキーの対応する値が要求されます)。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.17 ContainsKey 操作の応答形式

Response Status説明

0x00

操作が成功。

0x02

キーが存在しない。

この操作の応答は空白です。

13.3.8. Hot Rod の Exec 操作

Exec 操作の要求形式には以下が含まれます。

表13.18 Exec 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Script

文字列

実行するスクリプトの名前。

Parameter Count

vInt

パラメーターの数。

Parameter Name (per parameter)

文字列

パラメーターの名前。

Parameter Length (per parameter)

vInt

パラメーターの長さ。

Parameter Value (per parameter)

バイトアレイ

パラメーターの値。

この操作の応答ヘッダーには以下のものが含まれます。

表13.19 Exec 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー。

Response status

1 バイト

正常に実行が完了した場合は 0x00、サーバーにエラーが発生した場合は 0x85。

Value Length

vInt

成功した場合は、戻り値の長さ。

Value

バイトアレイ

成功した場合は、実行の結果。

13.3.9. Hot Rod の Get 操作

Hot Rod の Get 操作は、以下の要求形式を使用します。

表13.20 Get 操作の要求形式

フィールドデータタイプ説明

Header

変数

要求ヘッダー

Key Length

vInt

キーの長さを含みます。Integer.MAX_VALUE のサイズよりも大きいサイズ (最大 5 バイト) であるため、vInt データタイプが使用されます。ただし、Java では単一のアレイサイズを Integer.MAX_VALUE よりも大きくすることはできません。結果として、この vInt も Integer.MAX_VALUE の最大サイズに制限されます。

Key

バイトアレイ

キーを含みます (このキーの対応する値が要求されます)。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.21 Get 操作の応答形式

Response Status説明

0x00

操作が成功。

0x02

キーが存在しない。

キーが見つかった場合の get 操作の応答形式は以下のとおりです。

表13.22 Get 操作の応答形式

フィールドデータタイプ説明

Header

変数

応答ヘッダー

Value Length

vInt

値の長さを含みます。

Value

バイトアレイ

要求された値を含みます。

13.3.10. Hot Rod の GetAll 操作

指定のキーセットへマップするすべてのエントリーを取得する一括操作。

Hot Rod の GetAll 操作は、以下の要求形式を使用します。

表13.23 GetAll 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Count

vInt

エンティティーを見つけるためのキーの数。

Key Length

vInt

キーの長さ。

Key

バイトアレイ

取得されたキー

Key Length および Key の値はキーごとに繰り返されます。

この操作の応答ヘッダーには以下のものが含まれます。

表13.24 GetAll 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー

Entry count

vInt

返されたエントリーの数。

Key Length

vInt

キーの長さ。

Key

バイトアレイ

取得されたキー

Value Length

vInt

値の長さ。

Value

バイトアレイ

取得された値。

Key LengthKeyValue Length、および Value エントリーはキーおよび値ごとに繰り返されます。

13.3.11. Hot Rod の GetWithMetadata 操作

Hot Rod の GetWithMetadata 操作は、以下の要求形式を使用します。

表13.25 GetWithMetadata 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Length

vInt

キーの長さ。vInt のサイズは最大 5 バイトであり、理論的には Integer.MAX_VALUE よりも大きい数を生成できます。ただし、Java では Integer.MAX_VALUE よりも大きい単一アレイを作成できず、プロトコルにより vInt アレイの長さが Integer.MAX_VALUE に制限されます。

Key

バイトアレイ

値が要求されるキーを含むバイトアレイ。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.26 GetWithMetadata 操作の応答要求

フィールドデータタイプ説明

Header

variable

応答ヘッダー。

Response status

1 バイト

0x00 = 成功 (キーが取得された場合)。

0x02 =  キーが存在しない場合。

Flag

1 バイト

応答に期限切れに関する情報が含まれるかどうかを示すフラグ。フラグの値は、 INFINITE_LIFESPAN (0x01)INFINITE_MAXIDLE (0x02) 間のビットごとの OR 演算として取得されます。

Created

Long

(任意) サーバーでエントリーが作成されたときのタイムスタンプを表す Long。この値は、フラグの INFINITE_LIFESPAN ビットが設定されていない場合にのみ返されます。

Lifespan

vInt

(任意) 秒単位でエントリーのライフスパンを表すvInt 。この値は、フラグの INFINITE_LIFESPAN ビットが設定されていない場合にのみ返されます。

LastUsed

Long

(任意) サーバーでエントリーが最後にアクセスされたときのタイムスタンプを表す Long。この値は、フラグの INFINITE_MAXIDLE ビットが設定されていない場合にのみ返されます。

MaxIdle

vInt

(任意) 秒単位でエントリーの maxIdle を表すvInt 。この値は、フラグの INFINITE_MAXIDLE ビットが設定されていない場合にのみ返されます。

Entry Version

8 バイト

既存のエントリー変更の一意な値。プロトコルでは entry_version の値はシーケンシャルであることが保証されず、キーレベルで更新ごとに一意である必要があります。

Value Length

vInt

成功した場合は、値の長さ。

Value

バイトアレイ

成功した場合は、要求された値。

13.3.12. Hot Rod の GetWithVersion 操作

Hot Rod の GetWithVersion 操作は、以下の要求形式を使用します。

表13.27 GetWithVersion 操作の要求形式

フィールドデータタイプ説明

Header

変数

要求ヘッダー

Key Length

vInt

キーの長さを含みます。Integer.MAX_VALUE のサイズよりも大きいサイズ (最大 5 バイト) であるため、vInt データタイプが使用されます。ただし、Java では単一のアレイサイズを Integer.MAX_VALUE よりも大きくすることはできません。結果として、この vInt も Integer.MAX_VALUE の最大サイズに制限されます。

Key

バイトアレイ

キーを含みます (このキーの対応する値が要求されます)。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.28 GetWithVersion 操作の応答形式

Response Status説明

0x00

操作が成功。

0x02

キーが存在しない。

キーが見つかった場合の GetWithVersion 操作の応答形式は以下のとおりです。

表13.29 GetWithVersion 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー

Entry Version

8 バイト

既存のエントリー変更の一意な値。プロトコルでは entry_version の値はシーケンシャルであることが保証されません。キーレベルで更新ごとに一意である必要があります。

Value Length

vInt

値の長さを含みます。

Value

バイトアレイ

要求された値を含みます。

13.3.13. Hot Rod の IterationEnd 操作

IterationEnd 操作の要求形式には以下が含まれます。

表13.30 IterationEnd 操作の要求形式

フィールドデータタイプ説明

iterationId

文字列

イテレーションの一意な ID。

以下は、この操作から返される有効な応答値です。

表13.31 IterationEnd 操作の応答形式

Response Status説明

0x00

操作が成功。

0x05

存在しない iterationId に対するエラー。

13.3.14. Hot Rod の IterationNext 操作

IterationNext 操作の要求形式には以下が含まれます。

表13.32 IterationNext 操作の要求形式

フィールドデータタイプ説明

IterationId

文字列

イテレーションの一意な ID。

この操作の応答ヘッダーには以下のものが含まれます。

表13.33 IterationNext 操作の応答形式

フィールドデータタイプ説明

Finished segments size

vInt

イテレーションを終了したセグメントを表すビットセットのサイズ。

Finished segments

バイトアレイ

イテレーションを終了したセグメントのビットセットエンコーディング。

Entry count

vInt

返されたエントリーの数。

Number of value projections

vInt

値の射影の数。

Metadata

1 バイト

設定された場合、エントリーにメタデータが関連付けされます。

Expiration

1 バイト

応答に期限切れに関する情報が含まれるかどうかを示すフラグ。フラグの値は、INFINITE_LIFESPAN (0x01)INFINITE_MAXIDLE (0x02) 間のビットごとの OR 演算として取得されます。上記の Metadata フラグが設定されている場合のみ含まれます。

Created

Long

(任意) サーバーでエントリーが作成されたときのタイムスタンプを表す Long。この値は、フラグの INFINITE_LIFESPAN ビットが設定されていない場合にのみ返されます。

Lifespan

vInt

(任意) 秒単位でエントリーのライフスパンを表すvInt 。この値は、フラグの INFINITE_LIFESPAN ビットが設定されていない場合にのみ返されます。

LastUsed

Long

(任意) サーバーでエントリーが最後にアクセスされたときのタイムスタンプを表す Long。この値は、フラグの INFINITE_MAXIDLE ビットが設定されていない場合にのみ返されます。

MaxIdle

vInt

(任意) 秒単位でエントリーの maxIdle を表すvInt 。この値は、フラグの INFINITE_MAXIDLE ビットが設定されていない場合にのみ返されます。

Entry Version

8 バイト

既存のエントリー変更の一意な値。Metadata フラグが設定されている場合のみ含まれます。

Key Length

vInt

キーの長さ。

Key

バイトアレイ

取得されたキー

Value Length

vInt

値の長さ。

Value

バイトアレイ

取得された値。

エントリーごとに MetadataExpirationCreatedLifespanLastUsedMaxIdleEntry VersionKey LengthKeyValue Length、および Value フィールドが繰り返されます。

13.3.15. Hot Rod の IterationStart 操作

IterationStart 操作の要求形式には以下が含まれます。

表13.34 IterationStart 操作の要求形式

フィールドデータタイプ説明

Segments size

signed vInt

イテレーションを行うセグメント ID のビットセットエンコーディングのサイズ。サイズは、最も近い 8 の倍数に切り上げまたは切り捨てされた最大セグメント ID になります。-1 の値はセグメントのフィルターが実行されないことを示します。

Segments

バイトアレイ

(任意) ビットセットがエンコードされた セグメント ID が含まれ、1 が値の各ビットはセットのセグメントを表します。バイトの順番はリトルエンディアン (little endian) です。たとえば、セグメント [1,3,12,13] は以下のエンコーディングになります。

00001010 00110000
size: 16 bits
first byte: represents segments from 0 to 7, from which 1 and 3 are set
second byte: represents segments from 8 to 15, from which 12 and 13 are set

詳細は java.util.BitSet 実装を参照してください。前のフィールドが負の値でない場合、セグメントは送信されます。

FilterConverter size

signed vInt

サーバーにデプロイされた KeyValueFilterConverter ファクトリー名を表す文字列のサイズ、またはフィルターが使用されない場合は -1。

FilterConverter

UTF-8 バイトアレイ

(任意) サーバーにデプロイされた KeyValueFilterConverter ファクトリー名。前のフィールドが負の値でない場合に含まれます。

Parameters size

バイト

フィルターのパラメーター数。FilterConverter が提供される場合のみ含まれます。

Parameters

byte[][]

パラメーターのアレイ。各パラメーターがバイトアレイになります。Parameters サイズが 0 よりも大きい場合のみ含まれます。

BatchSize

vInt

一度にサーバーから転送するエントリーの数。

Metadata

1 バイト

各エントリーに対してメタデータを返す場合は 1。その他の場合は 0。

この操作の応答ヘッダーには以下のものが含まれます。

表13.35 IterationEnd 操作の応答形式

フィールドデータタイプ説明

IterationId

文字列

イテレーションの一意な ID。

13.3.16. Hot Rod の Ping 操作

ping は、サーバーの可用性を確認するアプリケーションレベルの要求です。

この操作に有効な応答ステータスは以下のとおりです。

表13.36 ping 操作の応答

Response Status説明

0x00

エラーなしの正常な ping。

13.3.17. Hot Rod の Put 操作

put 操作の要求形式には以下が含まれます。

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Length

-

キーの長さを含みます。

Key

バイトアレイ

キーの値を含みます。

TimeUnits

バイト

lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには DEFAULT、期限切れのない場合は INFINITE を使用できます。可能な値は次のとおりです。

0x00 = SECONDS
0x01 = MILLISECONDS
0x02 = NANOSECONDS
0x03 = MICROSECONDS
0x04 = MINUTES
0x05 = HOURS
0x06 = DAYS
0x07 = DEFAULT
0x08 = INFINITE

Lifespan

vInt

エントリーが存続できる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Max Idle

vInt

各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Value Length

vInt

値の長さを含みます。

Value

バイトアレイ

要求された値。

以下は、この操作から返される有効な応答値です。

Response Status説明

0x00

値が正常に格納されました。

0x03

値が正常に格納され、以前の値が続きます。

この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。

13.3.18. Hot Rod の PutAll 操作

すべてのキーバリューエントリーを同時にキャッシュに置く一括操作。

PutAll 操作の要求形式には以下が含まれます。

表13.37 PutAll 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

TimeUnits

バイト

lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには DEFAULT、期限切れのない場合は INFINITE を使用できます。可能な値は次のとおりです。

0x00 = SECONDS
0x01 = MILLISECONDS
0x02 = NANOSECONDS
0x03 = MICROSECONDS
0x04 = MINUTES
0x05 = HOURS
0x06 = DAYS
0x07 = DEFAULT
0x08 = INFINITE

Lifespan

vInt

エントリーが存続できる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Max Idle

vInt

各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Entry count

vInt

挿入されたエントリーの数。

Key Length

vInt

キーの長さ。

Key

バイトアレイ

取得されたキー

Value Length

vInt

値の長さ。

Value

バイトアレイ

取得された値。

Key LengthKeyValue Length、および Value フィールドは、置かれたエントリーごとに繰り返されます。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.38 PutAll 操作の応答形式

Response Status説明

0x00

操作に成功し、すべてのキーが正常に置かれたことを示します。

13.3.19. Hot Rod の PutIfAbsent 操作

PutIfAbsent 操作の要求形式には以下が含まれます。

表13.39 PutIfAbsent 操作の要求フィールド

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Length

vInt

キーの長さを含みます。

Key

バイトアレイ

キーの値を含みます。

TimeUnits

バイト

lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには DEFAULT、期限切れのない場合は INFINITE を使用できます。可能な値は次のとおりです。

0x00 = SECONDS
0x01 = MILLISECONDS
0x02 = NANOSECONDS
0x03 = MICROSECONDS
0x04 = MINUTES
0x05 = HOURS
0x06 = DAYS
0x07 = DEFAULT
0x08 = INFINITE

Lifespan

vInt

エントリーが存続できる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Max Idle

vInt

各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Value Length

vInt

値の長さを含みます。

Value

バイトアレイ

要求された値を含みます。

以下は、この操作から返される有効な応答値です。

Response Status説明

0x00

値が正常に格納されました。

0x01

キーが存在したため値は保存されませんでした。キーの現在の値が返されます。

0x04

キーが存在したため操作に失敗し、応答でその値が続きます。

この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。

13.3.20. Hot Rod の Query 操作

Query 操作の要求形式には以下が含まれます。

表13.40 Query 操作の要求フィールド

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Query Length

vInt

Protobuf エンコードされたクエリーオブジェクトの長さ。

Query

バイトアレイ

Protobuf エンコードされたクエリーオブジェクトを含むバイトアレイ。長さは前のフィールドにより指定されます。

以下は、この操作から返される有効な応答値です。

表13.41 Query 操作の応答

Response Statusデータ説明

Header

variable

応答ヘッダー。

Response payload Length

vInt

Protobuf エンコードされた応答オブジェクトの長さ。

Response payload

バイトアレイ

Protobuf エンコードされた応答オブジェクトを含むバイトアレイ。長さは前のフィールドにより指定されます。

Hot Rod の Query 操作の要求および応答タイプは、infinispan-remote-query-client.jar 内にある org/infinispan/query/remote/client/query.proto リソースファイルで定義されます。

13.3.21. Hot Rod の Remove 操作

Hot RodRemove 操作は、以下の要求形式を使用します。

表13.42 Remove 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Length

vInt

キーの長さを含みます。Integer.MAX_VALUE のサイズよりも大きいサイズ (最大 5 バイト) であるため、vInt データタイプが使用されます。ただし、Java では単一のアレイサイズを Integer.MAX_VALUE よりも大きくすることはできません。結果として、この vIntInteger.MAX_VALUE の最大サイズに制限されます。

Key

バイトアレイ

キーを含みます (このキーの対応する値が要求されます)。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.43 Remove 操作の応答形式

Response Status説明

0x00

操作が成功。

0x02

キーが存在しない。

0x03

キーが削除され、応答で以前の値または削除された値が続きます。

通常、この操作の応答ヘッダーは空白です。ただし、ForceReturnPreviousValue が渡された場合は、応答ヘッダーに以下のいずれかが含まれます。

  • 以前のキーの値および長さ。
  • キーが存在しないことを示す、値の長さ 0 と応答ステータス 0x02

remove 操作の応答ヘッダーには、提供されたキーの以前の値と、以前の値の長さが含まれます (ForceReturnPreviousValue が渡された場合)。キーが存在しない場合、または以前の値が null の場合、値の長さは 0 です。

13.3.22. Hot Rod の RemoveIfUnmodified 操作

RemoveIfUnmodified 操作の要求形式には以下が含まれます。

表13.44 RemoveIfUnmodified 操作の要求フィールド

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Length

vInt

キーの長さを含みます。

Key

バイトアレイ

キーの値を含みます。

Entry Version

8 バイト

エントリーのバージョン番号。

以下は、この操作から返される有効な応答値です。

表13.45 RemoveIfUnmodified 操作の応答

Response Status説明

0x00

エントリーは置換または削除されました。

0x01

キーが変更されたため、エントリーの置換または削除に失敗しました。

0x02

キーが存在しない。

0x03

キーが削除され、応答で以前の値または置き換えられた値が続きます。

0x04

キーが変更されたためエントリーの削除に失敗し、応答で変更された値が続きます。

この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。

13.3.23. Hot Rod の Replace 操作

replace 操作の要求形式には以下が含まれます。

表13.46 Replace 操作の要求フィールド

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Length

vInt

キーの長さを含みます。

Key

バイトアレイ

キーの値を含みます。

TimeUnits

バイト

lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには DEFAULT、期限切れのない場合は INFINITE を使用できます。可能な値は次のとおりです。

0x00 = SECONDS
0x01 = MILLISECONDS
0x02 = NANOSECONDS
0x03 = MICROSECONDS
0x04 = MINUTES
0x05 = HOURS
0x06 = DAYS
0x07 = DEFAULT
0x08 = INFINITE

Lifespan

vInt

エントリーが存続できる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Max Idle

vInt

各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Value Length

vInt

値の長さを含みます。

Value

バイトアレイ

要求された値を含みます。

以下は、この操作から返される有効な応答値です。

表13.47 Replace 操作の応答

Response Status説明

0x00

値が正常に格納されました。

0x01

キーが存在しないため、値が格納されませんでした。

0x03

値が正常に置換され、応答で以前の値または置き換えられた値が続きます。

この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。

13.3.24. Hot Rod の ReplaceIfUnmodified 操作

ReplaceIfUnmodified 操作の要求形式には以下が含まれます。

表13.48 ReplaceIfUnmodified 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Key Length

vInt

キーの長さ。vInt のサイズは最大 5 バイトであり、理論的には Integer.MAX_VALUE よりも大きい数を生成できます。ただし、Java では Integer.MAX_VALUE よりも大きい単一アレイを作成できず、プロトコルにより vInt アレイの長さが Integer.MAX_VALUE に制限されます。

Key

バイトアレイ

値が要求されるキーを含むバイトアレイ。

TimeUnits

バイト

lifespan (最初の 4 ビット) および maxIdle (最後の 4 ビット) の時間単位。デフォルトのサーバー期限切れには DEFAULT、期限切れのない場合は INFINITE を使用できます。可能な値は次のとおりです。

0x00 = SECONDS
0x01 = MILLISECONDS
0x02 = NANOSECONDS
0x03 = MICROSECONDS
0x04 = MINUTES
0x05 = HOURS
0x06 = DAYS
0x07 = DEFAULT
0x08 = INFINITE

Lifespan

vInt

エントリーが存続できる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Max Idle

vInt

各エントリーがキャッシュからエビクトされる前に、アイドル状態でいられる期間。TimeUnits が DEFAULT または INFINITE でない場合のみ送信されます。

Entry Version

8 バイト

GetWithVersion 操作により返された値を使用します。

Value Length

vInt

値の長さ。

Value

バイトアレイ

格納する値。

この操作の応答ヘッダーには、以下のいずれかの応答ステータスが含まれます。

表13.49 ReplaceIfUnmodified 操作の応答ステータス

Response Status説明

0x00

値が正常に格納されました。

0x01

キーが変更されたため、置換が実行されませんでした。

0x02

キーが存在しないため、置換が実行されませんでした。

0x03

キーは置換され、応答で以前の値または置き換えられた値が続きます。

0x04

キーが変更されたためエントリーの置き換えに失敗し、応答で変更された値が続きます。

以下は、この操作から返される有効な応答値です。

表13.50 ReplaceIfUnmodified 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー。

Previous value length

vInt

以前の値を強制的に戻すフラグが要求で送信された場合、以前の値の長さが返されます。キーが存在しない場合、値の長さは 0 になります。送信されたフラグがない場合、値の長さは含まれません。

Previous value

バイトアレイ

以前の値を強制的に戻すフラグが要求で送信され、キーが置き換えられた場合、前の値になります。

13.3.25. Hot Rod の ReplaceWithVersion 操作

ReplaceWithVersion 操作の要求形式には以下が含まれます。

注記

RemoteCache API では、Hot Rod の ReplaceWithVersion 操作は ReplaceIfUnmodified 操作を使用します。結果として、これらの 2 つの操作は JBoss Data Grid ではまったく同じになります。

表13.51 ReplaceWithVersion 操作の要求フィールド

フィールドデータタイプ説明

Header

-

-

Key Length

vInt

キーの長さを含みます。

Key

バイトアレイ

キーの値を含みます。

Lifespan

vInt

エントリーが期限切れになるまでの秒数を含みます。秒数が 30 日を超える場合、その値はエントリーライフスパンの UNIX 時間 (つまり、日付 1/1/1970 以降の秒数) として処理されます。値が 0 に設定された場合、エントリーは期限切れになりません。

Max Idle

vInt

キャッシュからエビクトされるまでエントリーがアイドル状態のままになることが許可される秒数を含みます。このエントリーが 0 に設定された場合、エントリーは無期限でアイドル状態のままになることが許可され、max idle 値のため、エビクトされません。

Entry Version

8 バイト

エントリーのバージョン番号。

Value Length

vInt

値の長さを含みます。

Value

バイトアレイ

要求された値を含みます。

以下は、この操作から返される有効な応答値です。

表13.52 ReplaceWithVersion 操作の応答

Response Status説明

0x00

エントリーが置換または削除された場合に返されたステータス。

0x01

キーが変更されたため、エントリーの置換または削除が失敗した場合に、ステータスを返します。

0x02

キーが存在しない場合に、ステータスを返します。

この操作では空の応答がデフォルト応答になります。ただし、ForceReturnPreviousValue が渡された場合は、以前の値とキーが返されます。以前のキーと値が存在しない場合は、値の長さに値 0 が含まれます。

13.3.26. Hot Rod の Stats 操作

この操作は、利用可能なすべての統計の概要を返します。返された各統計に対して、名前と値が文字列形式と UTF-8 形式の両方で返されます。

この操作では、以下の統計がサポートされます。

表13.53 Stats 操作の要求フィールド

Name説明

timeSinceStart

Hot Rod が起動した以降の秒数を含みます。

currentNumberOfEntries

Hot Rod サーバーに現在存在するエントリーの数を含みます。

totalNumberOfEntries

Hot Rod サーバーに格納されたエントリーの合計数を含みます。

stores

put 操作の試行回数を含みます。

retrievals

get 操作の試行回数を含みます。

hits

get ヒット数を含みます。

misses

get 失敗数を含みます。

removeHits

remove ヒット数を含みます。

removeMisses

removal 失敗数を含みます。

globalCurrentNumberOfEntries

Hot Rod クラスター全体における現在のエントリー数。

globalStores

Hot Rod クラスター全体における put 操作の合計数

globalRetrievals

Hot Rod クラスター全体における get 操作の合計数

globalHits

Hot Rod クラスター全体における get ヒット数の合計。

globalMisses

Hot Rod クラスター全体における get 失敗数の合計。

globalRemoveHits

Hot Rod クラスター全体における removal ヒット数の合計。

globalRemoveMisses

Hot Rod クラスター全体における removal 失敗数の合計。

注記

Hot Rod がローカルモードで実行されている場合、global で始まる統計は利用できません。

この操作の応答ヘッダーには以下のものが含まれます。

表13.54 Stats 操作の応答

Nameデータタイプ説明

Header

variable

応答ヘッダー。

Number of Stats

vInt

返された個別統計の数を含みます。

Name Length

vInt

名前付き統計の長さを含みます。

Name

string

統計の名前を含みます。

Value Length

vInt

値の長さを含みます。

Value

string

統計値を含みます。

要求された各統計に対して、値 Name LengthNameValue Length、および Value が繰り返されます。

13.3.27. Hot Rod の Size 操作

Size 操作の要求形式には以下が含まれます。

表13.55 Size 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

この操作の応答ヘッダーには以下のものが含まれます。

表13.56 Size 操作の応答形式

フィールドデータタイプ説明

Header

variable

応答ヘッダー。

Size

vInt

クラスター化された構成でグローバルに計算されるリモートキャッシュのサイズ。存在する場合はキャッシュストアの内容も考慮されます。

13.4. Hot Rod 操作の値

13.4.1. Hot Rod 操作の値

以下は、要求ヘッダーと対応する応答ヘッダー値の有効な opcode 値のリストです。

表13.57 opcode 要求および応答ヘッダー値

操作要求操作コード応答操作コード

put

0x01

0x02

get

0x03

0x04

putIfAbsent

0x05

0x06

replace

0x07

0x08

replaceIfUnmodified

0x09

0x0A

remove

0x0B

0x0C

removeIfUnmodified

0x0D

0x0E

containsKey

0x0F

0x10

clear

0x13

0x14

stats

0x15

0x16

ping

0x17

0x18

bulkGet

0x19

0x1A

getWithMetadata

0x1B

0x1C

bulkKeysGet

0x1D

0x1E

query

0x1F

0x20

authMechList

0x21

0x22

auth

0x23

0x24

addClientListener

0x25

0x26

removeClientListener

0x27

0x28

size

0x29

0x2A

exec

0x2B

0x2C

putAll

0x2D

0x2E

getAll

0x2F

0x30

iterationStart

0x31

0x32

iterationNext

0x33

0x34

iterationEnd

0x35

0x36

また、応答ヘッダーの opcode 値が 0x50 の場合は、エラー応答を示します。

13.4.2. Magic 値

以下は要求および応答ヘッダー内の Magic フィールドの有効な値のリストです。

表13.58 Magic フィールド値

Value説明

0xA0

キャッシュ要求マーカー。

0xA1

キャッシュ応答マーカー。

13.4.3. Status 値

以下は、応答ヘッダー内の Status フィールドに有効なすべての値を含む表です。

表13.59 Status 値

Value説明

0x00

エラーなし。

0x01

配置、削除、置換なし。

0x02

キーは存在しません。

0x06

成功ステータス、互換性モードが有効です。

0x07

互換性モードの成功ステータスおよび前の値の返信が有効です。

0x08

互換性モードの非実行および前の値の返信が有効です。

0x81

無効なマジック値またはメッセージ ID。

0x82

不明なコマンド。

0x83

不明なバージョン。

0x84

要求解析エラー。

0x85

サーバーエラー。

0x86

コマンドタイムアウト。

13.4.4. Client Intelligence 値

以下は、要求ヘッダー内の Client Intelligence の有効な値のリストです。

表13.60 Client Intelligence フィールド値

Value説明

0x01

クラスターまたはハッシュ情報が必要でない基本的なクライアントを示します。

0x02

トポロジーを認識し、クラスター情報が必要なクラスターを示します。

0x03

ハッシュと配布を認識し、クラスターおよびハッシュ情報が必要なクライアントを示します。

13.4.5. フラグ値

以下は、要求ヘッダー内の有効な flag 値のリストです。

表13.61 フラグフィールド値

Value説明

0x0001

ForceReturnPreviousValue

13.4.6. Hot Rod のエラー処理

表13.62 応答ヘッダーフィールドを使用した Hot Rod エラー処理

フィールドデータタイプ説明

Error Opcode

-

エラー操作コードを含みます。

Error Status Number

-

error opcode に対応するステータス番号を含みます。

Error Message Length

vInt

エラーメッセージの長さを含みます。

Error Message

string

実際のエラーメッセージを含みます。要求の解析エラーが存在したことを示す 0x84 エラーコードが返された場合、このフィールドには、[path]_ Hot Rod_ サーバーでサポートされた最新バージョンが含まれます。

13.5. Hot Rod のリモートイベント

13.5.1. Hot Rod のリモートイベント

クライアントはリモートイベントリスナーを登録して、サーバーで発生するイベントの更新を受信することができます。クライアントリスナーが追加された直後にイベントが生成および送信されるため、リスナーの追加後に発生したすべてのイベントを受け取ることができます。

13.5.2. Hot Rod におけるリモートイベントのクライアントリスナーの追加

リモートイベントのクライアントリスナーを追加するには、以下の要求形式を使用します。

表13.63 Add Client Listener 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Listener ID

バイトアレイ

リスナーの識別子。

Include state

バイト

このバイトが 1 に設定された場合、初めてキャッシュリスナーを追加するとき、またはクラスター化環境でリモートリスナーが登録されたノードに変更があったときに、キャッシュされた状態がリモートクライアントへ返信されます。有効にすると、状態はクライアントへイベントを作成したキャッシュエントリーとして返信されます。0 に設定された場合、リスナーの追加時に状態はクライアントへ返信されず、リスナーが登録されたノードに変更があっても状態を受信しません。

Key/value filter factory name

文字列

このリスナーと使用されるキーバリューフィルターファクトリーの任意の名前。Hot Rod サーバーで直接イベントがフィルターされるようにし、クライアントに関係ないイベントが送信されないようにするキーバリューフィルターインスタンスを作成するために、このファクトリーが使用されます。使用されるファクトリーがない場合、文字列の長さは 0 になります。

Key/value filter factory parameter count

バイト

フィルターインスタンスの作成時、キーバリューフィルターファクトリーに任意の数のパラメーターを使用できるため、このファクトリーを使用して異なるフィルターインスタンスを動的に作成できます。このカウントフィールドは、ファクトリーへ渡されるパラメーターの数を示します。ファクトリー名を指定しないと、このフィールドはリクエストに含まれません。

Key/value filter factory parameter (per parameter)

バイトアレイ

キーバリューフィルターファクトリーのパラメーター。

Converter factory name

文字列

このリスナーと使用するコンバーターファクトリーの任意の名前。このファクトリーは、クライアントへ送信されるイベントの内容を変換するために使用されます。使用されるコンバーターがないと、。デフォルトでは生成されたイベントタイプに応じてイベントが明確に定義されます。しかし、イベントに情報を追加する必要がある場合や、イベントのサイズを縮小する必要がある場合があります。このような場合、コンバーターを使用してイベントの内容を変換することができます。コンバーターファクトリー名を指定すると、この処理を行うコンバーターインスタンスが作成されます。ファクトリーが使用されない場合は、文字列の長さが 0 になります。

Converter factory parameter count

バイト

コンバーターインスタンスの作成時、コンバーターファクトリーに任意の数のパラメーターを使用できるため、このファクトリーを使用して異なるコンバーターインスタンスを動的に作成できます。このカウントフィールドは、ファクトリーへ渡されるパラメーターの数を示します。ファクトリー名を指定しないと、このフィールドはリクエストに含まれません。

Converter factory parameter (per parameter)

バイトアレイ

コンバーターファクトリーのパラメーター。

Use raw data

バイト

フィルターまたはコンバーターパラメーターを raw バイナリーにする必要がある場合は 1、その他の場合は 0。

操作の応答形式は次のとおりです。

表13.64 Add Client Listener の応答形式

フィールドデータタイプ説明

Header

変数

応答ヘッダー。

13.5.3. リモートイベントの Hot Rod リモートクライアントリスナー

以前追加したクライアントリスナーを削除するには、以下の要求形式を使用します。

表13.65 Remove Client Listener 操作の要求形式

フィールドデータタイプ説明

Header

variable

要求ヘッダー

Listener ID

バイトアレイ

リスナーの識別子。

操作の応答形式は次のとおりです。

表13.66 Add Client Listener の応答形式

フィールドデータタイプ説明

Header

変数

応答ヘッダー。

13.5.4. Hot Rod イベントヘッダー

各リモートイベントは以下の形式に準拠するヘッダーを使用します。

表13.67 リモートイベントヘッダー

フィールド名SizeValue

Magic

1 バイト

0xA1 = response

Message ID

vLong

イベントの ID

Opcode

1 バイト

イベントタイプに応答するコード。

0x60 = cache entry created event
0x61 = cache entry modified event
0x62 = cache entry removed event
0x50 = error

Status

1 バイト

応答の状態。可能な値は次のとおりです。

0x00 = No error

Topology Change Marker

1 バイト

新しいトポロジーの送信が必要であるかどうかを決定できるようにするため、イベントは特定の受信トポロジー ID に関連付けられていません。そのため、新しいトポロジーはイベントとともに送信されません。よって、このマーカーはイベントに対して常に 0 の値を持ちます。

13.5.5. Hot Rod の CacheEntryCreated イベント

CacheEntryCreated イベントには以下が含まれます。

表13.68 CacheEntryCreated イベント

フィールド名SizeValue

Header

variable

0x60 操作コードが含まれるイベントヘッダー。

Listener ID

バイトアレイ

このイベントが転送されるリスナー。

Custom Marker

バイト

カスタムイベントマーカー。作成されたイベントは 0 になります。

Command Retried

バイト

再試行されたコマンドによって発生したイベントのマーカー。コマンドが再試行された場合は 1、その他の場合は 0。

Key

バイトアレイ

作成されたキー。

Version

long

作成されたエントリーのバージョン。このバージョン情報を使用して、このキャッシュエントリーで条件付き操作を作成できます。

13.5.6. Hot Rod の CacheEntryModified イベント

CacheEntryModified イベントには以下が含まれます。

表13.69 CacheEntryModified イベント

フィールド名SizeValue

Header

variable

0x61 操作コードが含まれるイベントヘッダー。

Listener ID

バイトアレイ

このイベントが転送されるリスナー。

Custom Marker

バイト

カスタムイベントマーカー。作成されたイベントは 0 になります。

Command Retried

バイト

再試行されたコマンドによって発生したイベントのマーカー。コマンドが再試行された場合は 1、その他の場合は 0。

Key

バイトアレイ

変更されたキー。

Version

long

変更されたエントリーのバージョン。このバージョン情報を使用して、このキャッシュエントリーで条件付き操作を作成できます。

13.5.7. Hot Rod の CacheEntryRemoved イベント

CacheEntryRemoved イベントには以下が含まれます。

表13.70 CacheEntryRemoved イベント

フィールド名SizeValue

Header

variable

0x62 操作コードが含まれるイベントヘッダー。

Listener ID

バイトアレイ

このイベントが転送されるリスナー。

Custom Marker

バイト

カスタムイベントマーカー。作成されたイベントは 0 になります。

Command Retried

バイト

再試行されたコマンドによって発生したイベントのマーカー。コマンドが再試行された場合は 1、その他の場合は 0。

Key

バイトアレイ

削除されたキー。

13.5.8. Hot Rod の Custom イベント

Custom イベントには以下が含まれます。

表13.71 Custom イベント

フィールド名SizeValue

Header

variable

イベント固有の操作コードが含まれるイベントヘッダー

Listener ID

バイトアレイ

このイベントが転送されるリスナー。

Custom Marker

バイト

カスタムイベントマーカー。ユーザーに返す前にイベントデータをアンマーシャルする必要があるカスタムイベントの場合、値は 1 になります。エベントデータをそのままユーザーに返す必要があるカスタムイベントの場合、値は 2 になります。

Event Data

バイトアレイ

カスタムイベントデータ。カスタムマーカーが 1 の場合、バイトはコンバーターによって返されたインスタンスのマーシャルされたバージョンを表します。カスタムマーカーが 2 の場合、コンバーターによって返されたバイトアレイを表します。

13.6. Put 要求の例

以下は、Hot Rod を使用した put 要求例からのコーディングされた要求です。

表13.72 Put 要求の例

バイト01234567

8

0xA0

0x09

0x41

0x01

0x07

0x4D ('M')

0x79 ('y')

0x43 ('C')

16

0x61 ('a')

0x63 ('c')

0x68 ('h')

0x65 ('e')

0x00

0x03

0x00

0x00

24

0x00

0x05

0x48 ('H')

0x65 ('e')

0x6C ('l')

0x6C ('l')

0x6F ('o')

0x00

32

0x00

0x05

0x57 ('W')

0x6F ('o')

0x72 ('r')

0x6C ('l')

0x64 ('d')

-

以下の表には、要求の例に対するすべてのヘッダーフィールドと値が含まれます。

表13.73 要求例のフィールド名と値

フィールド名バイトValue

Magic

0

0xA0

Version

2

0x41

Cache Name Length

4

0x07

Flag

12

0x00

Topology ID

14

0x00

Transaction ID

16

0x00

Key

18-22

'Hello'

Max Idle

24

0x00

Value

26-30

'World'

Message ID

1

0x09

Opcode

3

0x01

Cache Name

5-11

'MyCache'

Client Intelligence

13

0x03

Transaction Type

15

0x00

Key Field Length

17

0x05

Lifespan

23

0x00

Value Field Length

25

0x05

以下は、put 要求の例に対するコーディングされた応答です。

表13.74 put 要求の例のコーディングされた応答

バイト01234567

8

0xA1

0x09

0x01

0x00

0x00

-

-

-

以下の表には、応答の例のヘッダーフィールドと値がすべて含まれます。

表13.75 応答例のフィールド名および値

フィールド名バイトValue

Magic

0

0xA1

Opcode

2

0x01

Topology Change Marker

4

0x00

Message ID

1

0x09

Status

3

0x00

13.7. Hot Rod Java クライアント

13.7.1. Hot Rod Java クライアント

Hot Rod はバイナリーの言語非依存プロトコルです。Java クライアントは、Hot Rod Java Client API を使用して Hot Rod プロトコルを介してサーバーと対話できます。

13.7.2. Hot Rod Java クライアントのダウンロード

JBoss Data Grid Hot Rod Java クライアントをダウンロードするには、次の手順に従ってください。

手順: Hot Rod Java クライアントのダウンロード

  1. https://access.redhat.com のカスタマーポータルにログインします。
  2. ページの上部にある ダウンロード ボタンをクリックします。
  3. 製品のダウンロード ページで Red Hat JBoss Data Grid をクリックします。
  4. Version: ドロップダウンメニューで適切な JBoss Data Grid のバージョンを選択します。
  5. Red Hat JBoss Data Grid 7.1 Hot Rod Java Client エントリーを見つけ、その Download リンクをクリックします。

13.7.3. Hot Rod Java クライアントの設定

Hot Rod Java クライアントは、プログラムを使用したり、設定ファイルまたはプロパティーファイルを外部的に使用したりして設定されます。次の例は、利用可能な Java 対応 API を使用したクライアントインスタンスの作成を示しています。

クライアントインスタンスの作成

org.infinispan.client.hotrod.configuration.ConfigurationBuilder cb
= new org.infinispan.client.hotrod.configuration.ConfigurationBuilder();
cb.tcpNoDelay(true)
  .connectionPool()
      .numTestsPerEvictionRun(3)
      .testOnBorrow(false)
      .testOnReturn(false)
      .testWhileIdle(true)
  .addServer()
      .host("localhost")
      .port(11222);
RemoteCacheManager rmc = new RemoteCacheManager(cb.build());

プロパティーファイルを使用した Hot Rod Java クライアントの設定

Hot Rod Java クライアントを設定するには、クラスパス上の hotrod-client.properties ファイルを編集します。

次の例は、hotrod-client.properties ファイルの内容を示しています。

設定

infinispan.client.hotrod.transport_factory = org.infinispan.client.hotrod.impl.transport.tcp.TcpTransportFactory

infinispan.client.hotrod.server_list = 127.0.0.1:11222

infinispan.client.hotrod.marshaller = org.infinispan.commons.marshall.jboss.GenericJBossMarshaller

infinispan.client.hotrod.async_executor_factory = org.infinispan.client.hotrod.impl.async.DefaultAsyncExecutorFactory

infinispan.client.hotrod.default_executor_factory.pool_size = 1

infinispan.client.hotrod.default_executor_factory.queue_size = 10000

infinispan.client.hotrod.hash_function_impl.1 = org.infinispan.client.hotrod.impl.consistenthash.ConsistentHashV1

infinispan.client.hotrod.tcp_no_delay = true

infinispan.client.hotrod.ping_on_startup = true

infinispan.client.hotrod.request_balancing_strategy = org.infinispan.client.hotrod.impl.transport.tcp.RoundRobinBalancingStrategy

infinispan.client.hotrod.key_size_estimate = 64

infinispan.client.hotrod.value_size_estimate = 512

infinispan.client.hotrod.force_return_values = false

infinispan.client.hotrod.tcp_keep_alive = true

## below is connection pooling config

maxActive=-1

maxTotal = -1

maxIdle = -1

whenExhaustedAction = 1

timeBetweenEvictionRunsMillis=120000

minEvictableIdleTimeMillis=300000

testWhileIdle = true

minIdle = 1

注記

TCPKEEPALIVE 設定は、 例で示された設定プロパティー (infinispan.client.hotrod.tcp_keep_alive = true/false) または org.infinispan.client.hotrod.ConfigurationBuilder.tcpKeepAlive() メソッドを使用したプログラムによって Hot Rod Java クライアントで有効または無効になります。

Red Hat JBoss Data Grid でプロパティーファイルを使用するには、次の 2 つのコンストラクターのいずれかを使用する必要があります。

  1. new RemoteCacheManager(boolean start)
  2. new RemoteCacheManager()

13.7.4. Hot Rod Java クライアントベーシック API

以下のコードは、クライアント API を使用して Hot Rod Java クライアントで Hot Rod サーバーから情報を保存または取得する方法を示しています。この例では、Hot Rod サーバーがデフォルトの場所 localhost:11222にバインドするよう起動されていることを前提とします。

ベーシック API

//API entry point, by default it connects to localhost:11222
        BasicCacheContainer cacheContainer = new RemoteCacheManager();
//obtain a handle to the remote default cache
        BasicCache<String, String> cache = cacheContainer.getCache();
//now add something to the cache and ensure it is there
        cache.put("car", "ferrari");
        assert cache.get("car").equals("ferrari");
//remove the data
        cache.remove("car");
        assert !cache.containsKey("car") : "Value must have been removed!";

RemoteCacheManagerDefaultCacheManager に対応し、両方が BasicCacheContainer を実装します。

この API は、Hot Rod を介したローカルコールからリモートコールへの移行を実現します。これは、DefaultCacheManagerRemoteCacheManager を切り替えることによって行うことができ、共通の BasicCacheContainer インターフェースによって単純化されます。

すべてのキーは、keySet() メソッドを使用してリモートキャッシュから取得できます。リモートキャッシュが分散キャッシュである場合は、サーバーにより Map/Reduce ジョブが開始され、クラスター化されたノードからすべてのキーが取得され、すべてのキーがクライアントに返されます。

キーの数が多い場合は、このメソッドを注意して使用してください。

Set keys = remoteCache.keySet();

13.7.5. Hot Rod Java クライアントバージョン API

データの整合性を確保するために、Hot Rod は各変更を一意に識別するバージョン番号を保存します。getVersioned を使用して、クライアントはキーと現在のバージョンに関連付けられた値を取得できます。

Hot Rod Java クライアントを使用する場合、RemoteCacheManager は、リモートクラスター上の名前付きキャッシュまたはデフォルトのキャッシュにアクセスする RemoteCache インターフェースのインスタンスを提供します。これにより、バージョン API を含む、新しいメソッドを追加する Cache インターフェースが拡張されます。

バージョンメソッドの使用

// To use the versioned API, remote classes are specifically needed
RemoteCacheManager remoteCacheManager = new RemoteCacheManager();
RemoteCache<String, String> remoteCache = remoteCacheManager.getCache();
remoteCache.put("car", "ferrari");
VersionedValue valueBinary = remoteCache.getWithMetadata("car");
// removal only takes place only if the version has not been changed
// in between. (a new version is associated with 'car' key on each change)
assert remoteCache.removeWithVersion("car", valueBinary.getVersion());
assert !remoteCache.containsKey("car");

置換の使用

remoteCache.put("car", "ferrari");
VersionedValue valueBinary = remoteCache.getWithMetadata("car");
assert remoteCache.replaceWithVersion("car", "lamborghini", valueBinary.getVersion());

13.8. Hot Rod C++ クライアント

13.8.1. Hot Rod C++ クライアント

Hot Rod C++ クライアントを使用すると、C ランタイムアプリケーションによる Red Hat JBoss Data Grid リモートサーバーへの接続や対話が可能になり、リモートキャッシュへデータを読み書きできます。Hot Rod C ++ クライアントは 3 つのレベルすべてでクライアントインテリジェンスをサポートし、以下のプラットフォームでサポートされます。

  • Red Hat Enterprise Linux 6、64 ビット
  • Red Hat Enterprise Linux 7、64 ビット

    Hot Rod C++ クライアントは、Visual Studio 2015 がインストールされた 64 ビット Windows では技術プレビューとして利用できます。

13.8.2. Hot Rod C++ クライアント形式

Hot Rod C++ クライアントは、以下の 2 つのライブラリー形式で利用可能です。

  • 静的ライブラリー
  • 共有/動的ライブラリー

静的ライブラリー

静的ライブラリーはアプリケーションに静的にリンクされます。これにより、最終的な実行可能ファイルのサイズは増加します。アプリケーションは自己完結型であり、別のライブラリーを提供する必要はありません。

共有/動的ライブラリー

共有/動的ライブラリーは、実行時にアプリケーションに動的にリンクされます。ライブラリーは別のファイルに格納され、アプリケーションを再コンパイルせずアプリケーションとは別にアップグレードできます。

注記

これは、ライブラリーのメジャーバージョンがコンパイル時にアプリケーションがリンクされたものと同じである (バイナリー互換性がある) 場合にのみ可能です。

13.8.3. Hot Rod C++ クライアントの前提条件

以下の表は、基盤の OS に応じた Hot Rod C++ クライアントの使用要件の詳細を示しています。

表13.76 Hot Rod C++ クライアントの OS 別の前提条件

オペレーティングシステムHot Rod C++ クライアントの前提条件

RHEL 6、64 ビット

shared_ptr TR1 (GCC 4.0+) をサポートする C++ 03 コンパイラー

RHEL 7、64 ビット

C++ 11 コンパイラー (GCC 4.8.1)

Windows 7 x64

C 11 コンパイラー(Visual Studio 2015、x64 プラットフォーム用 Microsoft Visual C 2013 再頒布可能パッケージ)

13.8.4. Hot Rod C++ クライアントのインストール

13.8.4.1. Hot Rod C++ クライアントのダウンロードおよびインストール

Hot Rod C++ クライアントは、クライアントが使用されるオペレーティングシステムを基に 2 つの方法で配布されます。

  • RPM による RHEL サーバーのインストール
  • zip による Windows サーバーのインストール

13.8.4.2. RHEL における Hot Rod C++ クライアントのダウンロードおよびインストール

JBoss Data Grid 7.1 およびそれ以降のバージョンでは、C++ クライアントはこれまでの zip ディストリビューションの代わりに RPM として提供されます。以下の手順にしたがってクライアントをインストールします。

  1. Red Hat Subscription Manager を使用して Red Hat Enterprise Linux (RHEL) システムがアカウントに登録されている必要があります。詳細は Red Hat Subscription Management のドキュメント を参照してください。
  2. Red Hat Subscription Manager を使用して、RHEL のバージョンに応じて必要となるチャンネルをサブスクライブします。

    表13.77 RHN チャンネル

    RHEL バージョンチャンネル名

    RHEL 6

    jb-datagrid-7.1-for-rhel-6-server-rpms

    RHEL 7

    jb-datagrid-7.1-for-rhel-7-server-rpms

    たとえば、RHEL 7 チャンネルにサブスクライブするには、以下のコマンドを使用します。

    subscription-manager repos --enable=jb-datagrid-7.1-for-rhel-7-server-rpms
  3. チャンネルが追加されたら、以下のコマンドを使用して C++ クライアント rpm をインストールできます。

    yum install jdg-cpp-client

13.8.4.3. Windows における Hot Rod C++ クライアントのダウンロードおよびインストール

Windows の Hot Rod C++ は、Red Hat カスタマーポータル (https://access.redhat.com) の Red Hat JBoss Data Grid バイナリーにある jboss-datagrid-<version>-hotrod-cpp-WIN-x86_64.zip という個別の zip ファイルに含まれています。

この zip ファイルをダウンロードした後、システム上の任意の場所に展開すると C++ クライアントをインストールできます。

13.8.5. Hot Rod C++ クライアントでの Protobuf コンパイラーの使用

13.8.5.1. RHEL 7 における Protobuf コンパイラーの使用

RHEL 7 の C++ Hot Rod クライアントチャンネルには Protobuf コンパイラーが含まれています。このコンパイラーを使用するには、以下の手順にしたがいます。

  1. RHEL における Hot Rod C++ クライアントのダウンロードおよびインストール の説明どおりに、C++ チャンネルが RHEL システムに追加されている必要があります。
  2. protobuf rpm をインストールします。

    yum install protobuf
  3. 含まれている protobuf ライブラリーをライブラリーのパスに追加します。これらのライブラリーはデフォルトでは /opt/lib64 に含まれています。

    export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/lib64
  4. 必要な protobuf ファイルを C++ ヘッダーおよびソースファイルにコンパイルします。

    /bin/protoc --cpp_out dllexport_decl=HR_PROTO_EXPORT:/path/to/output/ $FILE
    注記

    HR_PROTO_EXOPRT は Hot Rod クライアントコード内でマクロ定義され、ファイルが続いてコンパイルされたときに拡張されます。

  5. 結果となるヘッダーとソースファイルは指定の出力ディレクトリーに生成され、特定のアプリケーションコードで通常どおりに参照およびコンパイルされます。

Protobuf の詳細は Protobuf エンコーディング を参照してください。

13.8.5.2. Windows における Protobuf コンパイラーの使用

Windows 用の C++ Hot Rod クライアントには、事前コンパイルされた Hot Rod コンポーネントと Protobuf コンパイラーが含まれます。多くの場合で、含まれるコンポーネントは追加のコンパイルなしで使用されますが、.proto ファイルにコンパイルが必要な場合は以下の手順にしたがいます。

  1. jboss-datagrid-<version>-hotrod-cpp-client-WIN-x86_64.zip をローカルのファイルシステムに展開します。
  2. コマンドプロンプトを開き、展開されたディレクトリーに移動します。
  3. 必要な protobuf ファイルを C++ ヘッダーおよびソースファイルにコンパイルします。

    bin\protoc --cpp_out dllexport_decl=HR_PROTO_EXPORT:path\to\output\ $FILE
    注記

    HR_PROTO_EXOPRT は Hot Rod クライアントコード内でマクロ定義され、ファイルが続いてコンパイルされたときに拡張されます。

  4. 結果となるヘッダーとソースファイルは指定の出力ディレクトリーに生成され、特定のアプリケーションコードで通常どおりに参照およびコンパイルされます。

Protobuf の詳細は Protobuf エンコーディング を参照してください。

13.8.6. Hot Rod C++ クライアントの設定

Hot Rod C++ クライアントは RemoteCache API を使用してリモートの Hot Rod サーバーと対話します。特定の Hot Rod サーバーとの通信を開始するために、RemoteCache を設定し、Hot Rod サーバーの特定のキャッシュを選択します。

ConfigurationBuilder API を使用して以下を設定します。

  • 最初に接続するサーバーのセット。
  • 接続プール属性。
  • 接続/ソケットタイムアウトおよび TCP nodelay。
  • Hot Rod プロトコルバージョン。

C++ の主な実行可能ファイルの設定例

以下の例は、ConfigurationBuilder を使用して RemoteCacheManager を設定する方法とデフォルトのリモートキャッシュを取得する方法を示しています。

SimpleMain.cpp

#include "infinispan/hotrod/ConfigurationBuilder.h"
#include "infinispan/hotrod/RemoteCacheManager.h"
#include "infinispan/hotrod/RemoteCache.h"
#include <stdlib.h>
using namespace infinispan::hotrod;
int main(int argc, char** argv) {
    ConfigurationBuilder b;
    b.addServer().host("127.0.0.1").port(11222);
    RemoteCacheManager cm(builder.build());
    RemoteCache<std::string, std::string> cache = cm.getCache<std::string, std::string>();
    return 0;
}

13.8.7. Hot Rod C++ クライアント API

RemoteCacheManager は、RemoteCache への参照を取得する開始点です。RemoteCache API は、リモート Hot Rod サーバーとサーバー上の特定のキャッシュと対話できます。

前の例で取得した RemoteCache 参照を使用すると、リモートキャッシュで値を挿入、取得、置換、および削除できます。また、すべてのキーの取得やキャッシュのクリアなどの一括操作を実行することもできます。

RemoteCacheManager が停止されると、使用中のすべてのリソースが解放されます。

SimpleMain.cpp

RemoteCache<std::string, std::string> rc = cm.getCache<std::string, std::string>();
    std::string k1("key13");
    std::string v1("boron");
    // put
    rc.put(k1, v1);
    std::auto_ptr<std::string> rv(rc.get(k1));
    rc.putIfAbsent(k1, v1);
    std::auto_ptr<std::string> rv2(rc.get(k1));
    std::map<HR_SHARED_PTR<std::string>,HR_SHARED_PTR<std::string> > map = rc.getBulk(0);
    std::cout << "getBulk size" << map.size() << std::endl;
    ..
    .
    cm.stop();

13.8.8. Hot Rod C++ クライアント非同期 API

Hot Rod C++ クライアントは多くの同期メソッドの非同期のバージョンを提供し、リモートキャッシュと対話するための非ブロッキングメソッドを実現します。

重要

非同期メソッドは、Red Hat JBoss Data Grid 7.1 の Hot Rod C++ クライアントでは技術プレビューの機能となります。

非同期メソッドは同期メソッドと同じ命名規則にしたがいますが、各メソッドの末尾に Async が追加されます。非同期メソッドは操作の結果が含まれる std::future を返します。メソッドが std::string を返す場合は、代わりに std::future < std::string* > を返します。

以下に非同期メソッドのリストを示します。

  • clearAsync
  • getAsync
  • putAsync
  • putAllAsync
  • putIfAbsentAsync
  • removeAsync
  • removeWithVersionAsync
  • replaceAsync
  • replaceWithVersionAsync

Hot Rod C++ 非同期 API の例

以下の例ではこれらのメソッドが使用されます。

#include "infinispan/hotrod/ConfigurationBuilder.h"
#include "infinispan/hotrod/RemoteCacheManager.h"
#include "infinispan/hotrod/RemoteCache.h"
#include "infinispan/hotrod/Version.h"

#include "infinispan/hotrod/JBasicMarshaller.h"
#include <iostream>
#include <thread>
#include <future>

using namespace infinispan::hotrod;

int main(int argc, char** argv) {
    ConfigurationBuilder builder;
    builder.addServer().host(argc > 1 ? argv[1] : "127.0.0.1").port(argc > 2 ? atoi(argv[2]) : 11222).protocolVersion(Configuration::PROTOCOL_VERSION_24);
    RemoteCacheManager cacheManager(builder.build(), false);
    auto *km = new BasicMarshaller<std::string>();
    auto *vm = new BasicMarshaller<std::string>();
    auto cache = cacheManager.getCache<std::string, std::string>(km, &Marshaller<std::string>::destroy, vm, &Marshaller<std::string>::destroy );
    cacheManager.start();
    std::string ak1("asyncK1");
    std::string av1("asyncV1");
    std::string ak2("asyncK2");
    std::string av2("asyncV2");
    cache.clear();

    // Put ak1,av1 in async thread
    std::future<std::string*> future_put= cache.putAsync(ak1,av1);
    // Get the value in this thread
    std::string* arv1= cache.get(ak1);

    // Now wait for put completion
    future_put.wait();

    // All is synch now
    std::string* arv11= cache.get(ak1);
    if (!arv11 || arv11->compare(av1))
    {
        std::cout << "fail: expected " << av1 << "got " << (arv11 ? *arv11 : "null") << std::endl;
        return 1;
    }

    // Read ak1 again, but in async way and test that the result is the same
    std::future<std::string*> future_ga= cache.getAsync(ak1);
    std::string* arv2= future_ga.get();
    if (!arv2 || arv2->compare(av1))
    {
        std::cerr << "fail: expected " << av1 << " got " << (arv2 ? *arv2 : "null") << std::endl;
        return 1;
    }

    // Now user pass a simple lambda func that set a flag to true when the put completes
    bool flag=false;
    std::future<std::string*> future_put1= cache.putAsync(ak2,av2,0,0,[&] (std::string *v){flag=true; return v;});
    // The put is not completed here so flag must be false
    if (flag)
    {
        std::cerr << "fail: expected false got true" << std::endl;
        return 1;
    }
    // Now wait for put completion
    future_put1.wait();
    // The user lambda must be executed so flag must be true
    if (!flag)
    {
        std::cerr << "fail: expected true got false" << std::endl;
        return 1;
    }

    // Same test for get
    flag=false;
    // Now user pass a simple lambda func that set a flag to true when the put completes
    std::future<std::string*> future_get1= cache.getAsync(ak2,[&] (std::string *v){flag=true; return v;});
    // The get is not completed here so flag must be false
    if (flag)
    {
        std::cerr << "fail: expected false got true" << std::endl;
        return 1;
    }
    // Now wait for get completion
    future_get1.wait();
    if (!flag)
    {
        std::cerr << "fail: expected true got false" << std::endl;
        return 1;
    }
    std::string* arv3= future_get1.get();
    if (!arv3 || arv3->compare(av2))
    {
        std::cerr << "fail: expected " << av2 << " got " << (arv3 ? *arv3 : "null") << std::endl;
        return 1;
    }
    cacheManager.stop();
}

13.8.9. Hot Rod C++ クライアントのリモートイベントリスナー

The Hot Rod C++ クライアントはリモートキャッシュリスナーをサポートします。これらのリスナーを追加するには ClientCacheListeneradd_listener 関数を使用します。

重要

リモートイベントリスナーは、Red Hat JBoss Data Grid 7.1 の Hot Rod C++ クライアントでは技術プレビューの機能となります。

この関数は各イベントタイプ (createmodifyremoveexpire、または custom) のリスナーを取ります。リモートイベントリスナーの詳細は リモートイベントリスナー (Hot Rod) を参照してください。例を以下に示します。

ConfigurationBuilder builder;
    builder.balancingStrategyProducer(nullptr);
builder.addServer().host("127.0.0.1").port(11222);
builder.protocolVersion(Configuration::PROTOCOL_VERSION_24);
RemoteCacheManager cacheManager(builder.build(), false);
cacheManager.start();
JBasicMarshaller<int> *km = new JBasicMarshaller<int>();
JBasicMarshaller<std::string> *vm = new JBasicMarshaller<std::string>();
RemoteCache<int, std::string> cache = cacheManager.getCache<int, std::string>(km,
    &Marshaller<int>::destroy,
    vm,
    &Marshaller<std::string>::destroy);
cache.clear();
std::vector<std::vector<char> > filterFactoryParams;
std::vector<std::vector<char> > converterFactoryParams;
CacheClientListener<int, std::string> cl(cache);
int createdCount=0, modifiedCount=0, removedCount=0, expiredCount=0;

// We're using future and promise to have a basic listeners/main thread synch
int setFutureEventKey=0;
std::promise<void> promise;
std::function<void(ClientCacheEntryCreatedEvent<int>)> listenerCreated = [&createdCount, &setFutureEventKey, &promise](ClientCacheEntryCreatedEvent<int> e) { createdCount++; if (setFutureEventKey==e.getKey()) promise.set_value(); };
std::function<void(ClientCacheEntryModifiedEvent<int>)> listenerModified = [&modifiedCount, &setFutureEventKey, &promise](ClientCacheEntryModifiedEvent <int> e) { modifiedCount++; if (setFutureEventKey==e.getKey()) promise.set_value(); };
std::function<void(ClientCacheEntryRemovedEvent<int>)> listenerRemoved = [&removedCount, &setFutureEventKey, &promise](ClientCacheEntryRemovedEvent <int> e) { removedCount++; if (setFutureEventKey==e.getKey()) promise.set_value(); };
std::function<void(ClientCacheEntryExpiredEvent<int>)> listenerExpired = [&expiredCount, &setFutureEventKey, &promise](ClientCacheEntryExpiredEvent <int> e) { expiredCount++; if (setFutureEventKey==e.getKey()) promise.set_value(); };

cl.add_listener(listenerCreated);
cl.add_listener(listenerModified);
cl.add_listener(listenerRemoved);
cl.add_listener(listenerExpired);

cache.addClientListener(cl, filterFactoryParams, converterFactoryParams);

13.8.10. サイトと動作する Hot Rod C++ クライアント

複数の Red Hat JBoss Data Grid サーバークラスターをデプロイし、各クラスターが異なるサイトに属するようにすることができます。このようなデプロイメントは、あるクラスターから別のクラスター (地理的に異なる場所にある可能性がある) にデータをバックアップできるようにするために行われます。C++ クライアント実装はクラスター内のノードの間でフェイルオーバーでき、元のクラスターが応答しなくなった場合は全体を他のクラスターにフェイルオーバーできます。クラスター間でのフェイルオーバーを可能にするには、すべての Red Hat JBoss Data Grid サーバーがクロスデータセンターレプリケーションで設定されている必要があります。この手順は、Red Hat JBoss Data Grid の Administration and Configuration Guide を参照してください。

フェイルオーバーが発生した場合、クライアントの代替クラスターへの接続は、例外が発生して代替クラスターが利用できなくなるまで維持されます。元のクラスターが操作可能になっても、クライアントは接続を自動的に切り替えません。元のクラスターに接続を切り替える場合は、以下の switchToDefaultCluster() メソッドを使用します。

クロスデータセンターレプリケーションがサーバー上で設定されたら、クライアントは代替クラスターの設定を提供し、設定した各クラスターに対して 1 つ以上のホスト/ポートペアの詳細情報を指定する必要があります。以下に例を示します。

#include "infinispan/hotrod/ConfigurationBuilder.h"
#include "infinispan/hotrod/RemoteCacheManager.h"
#include "infinispan/hotrod/RemoteCache.h"
#include <stdlib.h>
using namespace infinispan::hotrod;
int main(int argc, char** argv) {
    ConfigurationBuilder b;
    b.addServer().host("127.0.0.1").port(11222);
    b.addCluster("nyc").addClusterNode("127.0.0.1", 11322);

    RemoteCacheManager cm(builder.build());
    RemoteCache<std::string, std::string> cache = cm.getCache<std::string, std::string>();
    return 0;
}

13.8.10.1. 手動クラスター切り替え

自動サイトフェイルオーバーの他にも、C++ クライアントは以下のメソッドのいずれかを呼び出してクラスターの切り替えを行うことができます。

  • switchToCluster(clusterName) - クライアントを事前定義されたクラスター名に強制的に切り替えます。
  • switchToDefaultCluster - クライアントをクライアント設定で定義された最初のサーバーに強制的に切り替えます。

13.8.11. Hot Rod C++ クライアントを用いたリモートクエリーの実行

Protobuf マーシャラーで RemoteCacheManager が設定された後、Hot Rod C++ クライアントでは Google の Protocol Buffers を使用してリモートクエリーを実行できます。

重要

リモートクエリーの実行は、Red Hat JBoss Data Grid 7.1 の Hot Rod C++ クライアントでは技術プレビューの機能となります。

Hot Rod C++ クライアントでのリモートクエリーの有効化

  1. リモートの Red Hat JBoss Data Grid サーバーへの接続を取得します。

    #include "addressbook.pb.h"
    #include "bank.pb.h"
    #include <infinispan/hotrod/BasicTypesProtoStreamMarshaller.h>
    #include <infinispan/hotrod/ProtoStreamMarshaller.h>
    #include "infinispan/hotrod/ConfigurationBuilder.h"
    #include "infinispan/hotrod/RemoteCacheManager.h"
    #include "infinispan/hotrod/RemoteCache.h"
    #include "infinispan/hotrod/Version.h"
    #include "infinispan/hotrod/query.pb.h"
    #include "infinispan/hotrod/QueryUtils.h"
    #include <vector>
    #include <tuple>
    
    #define PROTOBUF_METADATA_CACHE_NAME "___protobuf_metadata"
    #define ERRORS_KEY_SUFFIX  ".errors"
    
    using namespace infinispan::hotrod;
    using namespace org::infinispan::query::remote::client;
    
    std::string read(std::string file)
    {
      std::ifstream t(file);
      std::stringstream buffer;
      buffer << t.rdbuf();
      return buffer.str();
    }
    
    int main(int argc, char** argv) {
      std::cout << "Tests for Query" << std::endl;
        ConfigurationBuilder builder;
        builder.addServer().host(argc > 1 ? argv[1] : "127.0.0.1").port(argc > 2 ? atoi(argv[2]) : 11222).protocolVersion(Configuration::PROTOCOL_VERSION_24);
        RemoteCacheManager cacheManager(builder.build(), false);
        cacheManager.start();
  2. Protobuf マーシャラーで Protobuf メタデータキャッシュを作成します。

        // This example continues the previous codeblock
        // Create the Protobuf Metadata cache peer with a Protobuf marshaller
        auto *km = new BasicTypesProtoStreamMarshaller<std::string>();
        auto *vm = new BasicTypesProtoStreamMarshaller<std::string>();
        auto metadataCache = cacheManager.getCache<std::string, std::string>(
            km, &Marshaller<std::string>::destroy,
            vm, &Marshaller<std::string>::destroy,PROTOBUF_METADATA_CACHE_NAME, false);
  3. データモデルを Protobuf メタデータキャッシュにインストールします。

        // This example continues the previous codeblock
        // Install the data model into the Protobuf metadata cache
        metadataCache.put("sample_bank_account/bank.proto", read("proto/bank.proto"));
        if (metadataCache.containsKey(ERRORS_KEY_SUFFIX))
        {
            std::cerr << "fail: error in registering .proto model" << std::endl;
            return -1;
        }
  4. このステップは、この実証の目的でデータをキャッシュに追加します。リモートキャッシュを単にクエリーする場合、これは無視されることがあります。

        // This example continues the previous codeblock
        // Fill the cache with the application data: two users Tom and Jerry
        testCache.clear();
        sample_bank_account::User_Address a;
        sample_bank_account::User user1;
        user1.set_id(3);
        user1.set_name("Tom");
        user1.set_surname("Cat");
        user1.set_gender(sample_bank_account::User_Gender_MALE);
        sample_bank_account::User_Address * addr= user1.add_addresses();
        addr->set_street("Via Roma");
        addr->set_number(3);
        addr->set_postcode("202020");
        testCache.put(3, user1);
        user1.set_id(4);
        user1.set_name("Jerry");
        user1.set_surname("Mouse");
        addr->set_street("Via Milano");
        user1.set_gender(sample_bank_account::User_Gender_MALE);
        testCache.put(4, user1);
  5. リモートキャッシュをクエリーします。

        // This example continues the previous codeblock
        // Simple query to get User objects
        {
            QueryRequest qr;
            std::cout << "Query: from sample_bank_account.User" << std::endl;
            qr.set_jpqlstring("from sample_bank_account.User");
            QueryResponse resp = testCache.query(qr);
            std::vector<sample_bank_account::User> res;
            unwrapResults(resp, res);
            for (auto i : res) {
                std::cout << "User(id=" << i.id() << ",name=" << i.name()
                << ",surname=" << i.surname() << ")" << std::endl;
            }
        }
        cacheManager.stop();
        return 0;
    }

その他のクエリー例

以下の例は、より複雑なクエリーを示すために含まれています。上記の手順の同じデータセットで使用することができます。

条件を用いたクエリーの使用

// Simple query to get User objects with where condition
{
    QueryRequest qr;
    std::cout << "from sample_bank_account.User u where u.addresses.street=\"Via Milano\"" << std::endl;
    qr.set_jpqlstring("from sample_bank_account.User u where u.addresses.street=\"Via Milano\"");
    QueryResponse resp = testCache.query(qr);
    std::vector<sample_bank_account::User> res;
    unwrapResults(resp, res);
    for (auto i : res) {
        std::cout << "User(id=" << i.id() << ",name=" << i.name()
        << ",surname=" << i.surname() << ")" << std::endl;
    }
}

射影を用いたクエリーの使用

// Simple query to get projection (name, surname)
{
    QueryRequest qr;
    std::cout << "Query: select u.name, u.surname from sample_bank_account.User u" << std::endl;
    qr.set_jpqlstring(
        "select u.name, u.surname from sample_bank_account.User u");
    QueryResponse resp = testCache.query(qr);

    //Typed resultset
    std::vector<std::tuple<std::string, std::string> > prjRes;
    unwrapProjection(resp, prjRes);
    for (auto i : prjRes) {
        std::cout << "Name: " << std::get<0> (i)
        << " Surname: " << std::get<1> (i) << std::endl;
    }
}

13.8.12. Hot Rod C++ クライアントでのニアキャッシュの使用

ニアキャッシュは Hot Rod C++ クライアントの任意のキャッシュで、ユーザーの近くに最近アクセスされたデータを保持することで、頻繁に使用されるデータへのアクセスをより迅速にします。このキャッシュは、バックグラウンドでリモートサーバーに同期されたローカルの Hot Rod クライアントキャッシュとして動作します。

重要

ニアキャッシュは、Red Hat JBoss Data Grid 7.1 の Hot Rod C++ クライアントでは技術プレビューの機能となります。

ニアキャッシュをプログラムを使用して ConfigurationBuilder で有効にするには、以下の例のように nearCache() メソッドを使用します。

int main(int argc, char** argv) {
    ConfigurationBuilder confBuilder;
    confBuilder.addServer().host("127.0.0.1").port(11222);
    confBuilder.protocolVersion(Configuration::PROTOCOL_VERSION_24);
    confBuilder.balancingStrategyProducer(nullptr);

    // Enable the near cache support
    confBuilder.nearCache().mode(NearCacheMode::INVALIDATED).maxEntries(4);

ニアキャッシュの動作の設定には、以下のメソッドが使用されます。

  • nearCache() - さらに変更を追加できる NearCacheConfigurationBuilder を定義します。
  • mode(NearCacheMode mode) - NearCacheMode を渡す必要があります。デフォルトは DISABLED で、ニアキャッシュはすべて無効になります。
  • maxEntries(int maxEntries) - ニヤキャッシュに含まれるエントリーの最大数を示します。ニアキャッシュが満杯になると、最も古いエントリーがエビクトされます。この値を 0 に設定すると、バインドされないニアキャッシュが定義されます。

ニアキャッシュのエントリーは、イベントを介してリモートキャッシュとのアライメントを維持します。サーバーで変更が発生すると、適切なイベントがクライアントへ送信され、ニアキャッシュを更新します。

13.8.13. Hot Rod C++ クライアントを使用したスクリプトの実行

Hot Rod C++ クライアントを使用すると、リモート実行を介してタスクを直接 JBoss Data Grid サーバーで実行できます。この機能はデータに近いロジックを実行し、クラスターのノードすべてのリソースを利用します。タスクはサーバーインスタンスにデプロイでき、デプロイ後にプログラムを使用して実行できます。

重要

リモート実行は、Red Hat JBoss Data Grid 7.1 の Hot Rod C++ クライアントでは技術プレビューの機能となります。

タスクのインストール

___script_cacheput(std::string name, std::string script) メソッドが使用されると、タスクはサーバーにインストールされます。スクリプト名の拡張はスクリプトの実行に使用されるエンジンを判断しますが、これはスクリプト自体のメタデータによって上書きされます。

以下の例はスクリプトをインストールします。

C++ クライアントでのタスクのインストール

#include "infinispan/hotrod/ConfigurationBuilder.h"
#include "infinispan/hotrod/RemoteCacheManager.h"
#include "infinispan/hotrod/RemoteCache.h"
#include "infinispan/hotrod/Version.h"
#include "infinispan/hotrod/JBasicMarshaller.h"
using namespace infinispan::hotrod;
int main(int argc, char** argv) {
    // Configure the client
    ConfigurationBuilder builder;
    builder.addServer().host("127.0.0.1").port(11222).protocolVersion(
        Configuration::PROTOCOL_VERSION_24);
    RemoteCacheManager cacheManager(builder.build(), false);
    try {
    // Create the cache with the given marshallers
    auto *km = new JBasicMarshaller<std::string>();
    auto *vm = new JBasicMarshaller<std::string>();
    RemoteCache<std::string, std::string> cache = cacheManager.getCache<
        std::string, std::string>(km, &Marshaller<std::string>::destroy,
        vm, &Marshaller<std::string>::destroy,
        std::string("namedCache"));
    cacheManager.start();

    // Obtain a reference to the ___script_cache
    RemoteCache<std::string, std::string> scriptCache =
        cacheManager.getCache<std::string, std::string>(
        "___script_cache", false);
    // Install on the server the getValue script
    std::string getValueScript(
        "// mode=local,language=javascript\n "
        "var cache = cacheManager.getCache(\"namedCache\");\n "
        "var ct = cache.get(\"accessCounter\");\n "
        "var c = ct==null ? 0 : parseInt(ct);\n "
        "cache.put(\"accessCounter\",(++c).toString());\n "
        "cache.get(\"privateValue\") ");
    std::string getValueScriptName("getValue.js");
    std::string pGetValueScriptName =
        JBasicMarshaller<std::string>::addPreamble(getValueScriptName);
    std::string pGetValueScript =
        JBasicMarshaller<std::string>::addPreamble(getValueScript);
    scriptCache.put(pGetValueScriptName, pGetValueScript);
    // Install on the server the get access counter script
    std::string getAccessScript(
        "// mode=local,language=javascript\n "
        "var cache = cacheManager.getCache(\"namedCache\");\n "
        "cache.get(\"accessCounter\")");
    std::string getAccessScriptName("getAccessCounter.js");
    std::string pGetAccessScriptName =
        JBasicMarshaller<std::string>::addPreamble(getAccessScriptName);
    std::string pGetAccessScript =
        JBasicMarshaller<std::string>::addPreamble(getAccessScript);
    scriptCache.put(pGetAccessScriptName, pGetAccessScript);

タスクの実行

インストール後、タスクは execute(std::string name, std::map<std::string, std::string> args) メソッドを使用して実行されます。このメソッドには、実行するスクリプトの名前と実行に必要な引数を指定します。

以下の例はスクリプトを実行します。

C++ クライアントでのスクリプトの実行

    // The following is a continuation of the above example
    cache.put("privateValue", "Counted Access Value");
    std::map<std::string, std::string> s;
    // Execute the getValue script
    std::vector<unsigned char> execValueResult = cache.execute(
        getValueScriptName, s);
    // Execute the getAccess script
    std::vector<unsigned char> execAccessResult = cache.execute(
        getAccessScriptName, s);

    std::string value(
        JBasicMarshallerHelper::unmarshall<std::string>(
            (char*) execValueResult.data()));
    std::string access(
        JBasicMarshallerHelper::unmarshall<std::string>(
            (char*) execAccessResult.data()));

    std::cout << "Returned value is '" << value
        << "' and has been accessed: " << access << " times."
        << std::endl;

  } catch (const Exception& e) {
  std::cout << "is: " << typeid(e).name() << '\n';
  std::cerr << "fail unexpected exception: " << e.what() << std::endl;
  return 1;
  }

	cacheManager.stop();
	return 0;
}

13.9. Hot Rod C# クライアント

13.9.1. Hot Rod C# クライアント

Hot Rod C# クライアントでは、.NET ランタイムアプリケーションは Red Hat JBoss Data Grid サーバーへ接続し、対話できます。Hot Rod C# クライアントは、クラスタートポロジーとハッシュスキームを認識し、Hot Rod Java クライアントと Hot Rod C++ クライアントに類似した単一のホップでサーバー上のエントリーにアクセスできます。

Hot Rod C# クライアントは、.NET Framework が Microsoft によりサポートされる 64 ビットのオペレーティングシステムと互換性があります。.NET Framework 4.5 は、Hot Rod C# クライアントを使用するサポート対象オペレーティングシステムとともに前提条件です。

13.9.2. Hot Rod C# クライアントのダウンロードとインストール

Hot Rod C# クライアントは、Red Hat JBoss Data Grid でダウンロード用にパッケージされた .msi ファイル jboss-datagrid-<version>-hotrod-dotnet-client.msi に含まれます。Hot Rod C# クライアントをインストールするには、以下の手順を実行してください。

Hot Rod C# クライアントのインストール

  1. 管理者として、Hot Rod C# .msi ファイルがダウンロードされた場所に移動します。.msi ファイルを実行して Windows インストーラーを起動し、クリックします。

    図13.1 Hot Rod C# クライアントのセットアップの開始

    Hot Rod C# Client Setup Welcome
  2. 使用許諾契約書の内容を確認します。I accept the terms in the License Agreement (使用許諾契約に同意します) チェックボックスを選択し、クリックします。

    図13.2 Hot Rod C# クライアントの使用許諾契約

    Hot Rod C# Client End-User License Agreement
  3. デフォルトのディレクトリーを変更するには、Change... (変更...) または Next (次へ) をクリックしてデフォルトのディレクトリーにインストールします。

    図13.3 Hot Rod C# クライアントの宛先フォルダー

    Hot Rod C# Client Destination Folder
  4. Finish (完了) をクリックして Hot Rod C# クライアントのインストールを完了します。

    図13.4 Hot Rod C# クライアントのセットアップの完了

    Hot Rod C# Client Setup Completion

13.9.3. Hot Rod C# .NET プロジェクトの作成

.NET プロジェクトで Hot Rod C# クライアントを使用するには、以下の手順を実行する必要があります。

Hot Rod C# プロジェクトの設定

  1. Path 環境変数の追加

    PATH 環境変数に以下のフォルダーを追加する必要があります。

    C:\path\to\infinispan-hotrod-dotnet 8.4.0.Final\bin
    C:\path\to\infinispan-hotrod-dotnet 8.4.0.Final\lib
  2. Prefer 32 bit の削除

    Build タブの Project プロパティーにある Prefer 32 bit にチェックマークが入っていないようにしてください。

  3. Hot Rod C# dll の追加

    1. Solution Explorer ビューで Project を選択します。
    2. References を選択します。
    3. 参照を右クリックし、Add Reference を選択します。
    4. 表示されたウインドウで Browse をクリックし、C:\path\to\infinispan-hotrod-dotnet 8.4.0.Final\lib\hotrodcs.dll ファイルに移動します。
    5. OK をクリックします。

Hot Rod C# API が .NET プロジェクトで使用できるようになりました。

13.9.4. Hot Rod C# クライアントの設定

Hot Rod C# クライアントは ConfigurationBuilder を使用してプログラミングにより設定されます。クライアントが接続する必要があるホストとポートを設定します。

C# ファイルの設定例

以下の例は、ConfigurationBuilder を使用して RemoteCacheManager を設定する方法を示しています。

C# の設定

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Infinispan.HotRod;
using Infinispan.HotRod.Config;
namespace simpleapp
{
    class Program
    {
        static void Main(string[] args)
        {
            ConfigurationBuilder builder = new ConfigurationBuilder();
            builder.AddServer()
                .Host(args.Length > 1 ? args[0] : "127.0.0.1")
                .Port(args.Length > 2 ? int.Parse(args[1]) : 11222);
            Configuration config = builder.Build();
            RemoteCacheManager cacheManager = new RemoteCacheManager(config);
            [...]
        }
    }
}

13.9.5. Hot Rod C# クライアント API

RemoteCacheManagerは、RemoteCache への参照を取得する開始点です。

以下の例は、サーバーからのデフォルトキャッシュの取得と基本的な複数の操作を示しています。

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Infinispan.HotRod;
using Infinispan.HotRod.Config;
namespace simpleapp
{
    class Program
    {
        static void Main(string[] args)
        {
            ConfigurationBuilder builder = new ConfigurationBuilder();
            builder.AddServer()
                .Host(args.Length > 1 ? args[0] : "127.0.0.1")
                .Port(args.Length > 2 ? int.Parse(args[1]) : 11222);
            Configuration config = builder.Build();
            RemoteCacheManager cacheManager = new RemoteCacheManager(config);
            cacheManager.Start();
            // Retrieve a reference to the default cache.
            IRemoteCache<String, String> cache = cacheManager.GetCache<String, String>();
            // Add entries.
            cache.Put("key1", "value1");
            cache.PutIfAbsent("key1", "anotherValue1");
            cache.PutIfAbsent("key2", "value2");
            cache.PutIfAbsent("key3", "value3");
            // Retrive entries.
            Console.WriteLine("key1 -> " + cache.Get("key1"));
            // Bulk retrieve key/value pairs.
            int limit = 10;
            IDictionary<String, String> result = cache.GetBulk(limit);
            foreach (KeyValuePair<String, String> kv in result)
            {
                Console.WriteLine(kv.Key + " -> " + kv.Value);
            }
            // Remove entries.
            cache.Remove("key2");
            Console.WriteLine("key2 -> " + cache.Get("key2"));
            cacheManager.Stop();
        }
    }
}

13.9.6. Hot Rod C# クライアント非同期 API

Hot Rod C# クライアントは多くの同期メソッドの非同期のバージョンを提供し、リモートキャッシュと対話するための非ブロッキングメソッドを実現します。

重要

Hot Rod C# クライアント非同期 API は、Red Hat JBoss Data Grid 7.1 の Hot Rod C++ クライアントでは技術プレビューの機能となります。

非同期メソッドは同期メソッドと同じ命名規則にしたがいますが、各メソッドの末尾に Async が追加されます。非同期メソッドは操作の結果が含まれる Task を返します。メソッドが String を返す場合は、代わりに Task<String> を返します。

以下に非同期メソッドのリストを示します。

  • ClearAsync
  • GetAsync
  • PutAsync
  • PutAllAsync
  • PutIfAbsentAsync
  • RemoveAsync
  • RemoveWithVersionAsync
  • ReplaceAsync
  • ReplaceWithVersionAsync

Hot Rod C# 非同期 API の例

以下の例ではこれらのメソッドが使用されます。

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Infinispan.HotRod;
using Infinispan.HotRod.Config;
namespace simpleapp
{
    class Program
    {
        static void Main(string[] args)
        {
            ConfigurationBuilder builder = new ConfigurationBuilder();
            builder.AddServer()
                .Host(args.Length > 1 ? args[0] : "127.0.0.1")
                .Port(args.Length > 2 ? int.Parse(args[1]) : 11222);
            Configuration config = builder.Build();
            RemoteCacheManager cacheManager = new RemoteCacheManager(config);
            IRemoteCache<String,String> cache = cacheManager.GetCache<String,String>();

            // Add Entries Async
            cache.PutAsync("key1","value1");
            cache.PutAsync("key2","value2");

            // Retrieve Entries Async
            Task<string> futureExec = cache.GetAsync("key1");

            string result = futureExec.Result;
        }
    }
}

13.9.7. Hot Rod C# クライアントのリモートイベントリスナー

The Hot Rod C++ クライアントはリモートキャッシュリスナーをサポートします。これらのリスナーを追加するには ClientListeneraddListener 関数を使用します。

重要

リモートイベントリスナーは、Red Hat JBoss Data Grid 7.1 の Hot Rod C++ クライアントでは技術プレビューの機能となります。

このメソッドは各イベントタイプ (createmodifyremoveexpire、または custom) のリスナーを取ります。リモートイベントリスナーの詳細は リモートイベントリスナー (Hot Rod) を参照してください。modifiedEvent の例は次のとおりです。

[...]
private static void modifiedEventAction(Event.ClientCacheEntryModifiedEvent<string> e)
{
    ++modifiedEventCounter;
    modifiedSemaphore.Release();
}
[...]
public void ModifiedEventTest()
{
    IRemoteCache<string, string> cache = remoteManager.GetCache<string, string>();
    cache.Clear();
    Event.ClientListener<string, string> cl = new Event.ClientListener<string, string>();
    cl.filterFactoryName = "";
    cl.converterFactoryName = "";
    cl.addListener(modifiedEventAction);
    cache.addClientListener(cl, new string[] { }, new string[] { }, null);
}

13.9.8. サイトと動作する Hot Rod C# クライアント

複数の Red Hat JBoss Data Grid サーバークラスターをデプロイし、各クラスターが異なるサイトに属するようにすることができます。このようなデプロイメントは、あるクラスターから別のクラスター (地理的に異なる場所にある可能性がある) にデータをバックアップできるようにするために行われます。C# クライアント実装はクラスター内のノードの間でフェイルオーバーでき、元のクラスターが応答しなくなった場合は全体を他のクラスターにフェイルオーバーできます。クラスター間でのフェイルオーバーを可能にするには、すべての Red Hat JBoss Data Grid サーバーがクロスデータセンターレプリケーションで設定されている必要があります。この手順は、Red Hat JBoss Data Grid の Administration and Configuration Guide を参照してください。

フェイルオーバーが発生した場合、クライアントの代替クラスターへの接続は、例外が発生して代替クラスターが利用できなくなるまで維持されます。元のクラスターが操作可能になっても、クライアントは接続を自動的に切り替えません。元のクラスターに接続を切り替える場合は、以下の SwitchToDefaultCluster() メソッドを使用します。

クロスデータセンターレプリケーションがサーバー上で設定されたら、クライアントは代替クラスターの設定を提供し、設定した各クラスターに対して 1 つ以上のホスト/ポートペアの詳細情報を指定する必要があります。以下に例を示します。

ConfigurationBuilder conf1 = new ConfigurationBuilder();
conf1.AddServer().Host("127.0.0.1").Port(11222);
conf1.AddCluster("nyc").AddClusterNode("127.0.0.1", 11322);
RemoteCacheManager manager1 = new RemoteCacheManager(conf1.Build(), true);

ConfigurationBuilder conf2 = new ConfigurationBuilder();
conf2.AddServer().Host("127.0.0.1").Port(11322);
conf2.AddCluster("lon").AddClusterNode("127.0.0.1", 11222);
RemoteCacheManager remoteManager = new RemoteCacheManager(conf2.Build(), true);

13.9.8.1. 手動クラスター切り替え

自動サイトフェイルオーバーの他にも、C++ クライアントは以下のメソッドのいずれかを呼び出してクラスターの切り替えを行うことができます。

  • SwitchToCluster(clusterName) - クライアントを事前定義されたクラスター名に強制的に切り替えます。
  • SwitchToDefaultCluster() - クライアントをクライアント設定で定義された最初のサーバーに強制的に切り替えます。

13.9.9. Hot Rod C# クライアントを用いたリモートクエリーの実行

Protobuf マーシャラーで RemoteCacheManager が設定された後、Hot Rod C# クライアントでは Google の Protocol Buffers を使用してリモートクエリーを実行できます。

重要

リモートクエリーの実行は、Red Hat JBoss Data Grid 7.1 の Hot Rod C# クライアントでは技術プレビューの機能となります。

Hot Rod C# クライアントでのリモートクエリーの有効化

  1. Protobuf マーシャラーを設定に渡し、リモートの Red Hat JBoss Data Grid サーバーへの接続を取得します。

    using System;
    using System.Collections.Generic;
    using System.Linq;
    using System.Text;
    using System.Threading.Tasks;
    using Infinispan.HotRod;
    using Infinispan.HotRod.Config;
    using Google.Protobuf;
    using Org.Infinispan.Protostream;
    using Org.Infinispan.Query.Remote.Client;
    using QueryExampleBankAccount;
    using System.IO;
    
    namespace Query
    {
        /// <summary>
        /// This sample code shows how to perform Infinispan queries using the C# client
        /// </summary>
        class Query
        {
            static void Main(string[] args)
            {
                // Cache manager setup
                RemoteCacheManager remoteManager;
                const string ERRORS_KEY_SUFFIX = ".errors";
                const string PROTOBUF_METADATA_CACHE_NAME = "___protobuf_metadata";
                ConfigurationBuilder conf = new ConfigurationBuilder();
                conf.AddServer().Host("127.0.0.1").Port(11222).ConnectionTimeout(90000).SocketTimeout(6000);
                conf.Marshaller(new BasicTypesProtoStreamMarshaller());
                remoteManager = new RemoteCacheManager(conf.Build(), true);
                IRemoteCache<String, String> metadataCache = remoteManager.GetCache<String, String>(PROTOBUF_METADATA_CACHE_NAME);
                IRemoteCache<int, User> testCache = remoteManager.GetCache<int, User>("namedCache");
  2. Protobuf エンティティーモデルをインストールします。

                // This example continues the previous codeblock
                // Installing the entities model into the Infinispan __protobuf_metadata cache
                metadataCache.Put("sample_bank_account/bank.proto", File.ReadAllText("resources/proto2/bank.proto"));
                if (metadataCache.ContainsKey(ERRORS_KEY_SUFFIX))
                {
                    Console.WriteLine("fail: error in registering .proto model");
                    Environment.Exit(-1);
                }
  3. このステップは、この実証の目的でデータをキャッシュに追加します。リモートキャッシュを単にクエリーする場合、これは無視されることがあります。

                // This example continues the previous codeblock
                // The application cache must contain entities only
                testCache.Clear();
                // Fill the application cache
                User user1 = new User();
                user1.Id = 4;
                user1.Name = "Jerry";
                user1.Surname = "Mouse";
                User ret = testCache.Put(4, user1);
  4. リモートキャッシュをクエリーします。

                // This example continues the previous codeblock
                // Run a query
                QueryRequest qr = new QueryRequest();
                qr.JpqlString = "from sample_bank_account.User";
                QueryResponse result = testCache.Query(qr);
                List<User> listOfUsers = new List<User>();
                unwrapResults(result, listOfUsers);
    
            }
  5. 結果を処理するには、protobuf を C# オブジェクトに変換します。以下の例はこの変換を示しています。

            // Convert Protobuf matter into C# objects
            private static bool unwrapResults<T>(QueryResponse resp, List<T> res) where T : IMessage<T>
            {
                if (resp.ProjectionSize > 0)
                {  // Query has select
                    return false;
                }
                for (int i = 0; i < resp.NumResults; i++)
                {
                    WrappedMessage wm = resp.Results.ElementAt(i);
    
                    if (wm.WrappedBytes != null)
                    {
                        WrappedMessage wmr = WrappedMessage.Parser.ParseFrom(wm.WrappedBytes);
                        if (wmr.WrappedMessageBytes != null)
                        {
                            System.Reflection.PropertyInfo pi = typeof(T).GetProperty("Parser");
    
                            MessageParser<T> p = (MessageParser<T>)pi.GetValue(null);
                            T u = p.ParseFrom(wmr.WrappedMessageBytes);
                            res.Add(u);
                        }
                    }
                }
                return true;
            }
        }
    }

13.9.10. Hot Rod C# クライアントでのニアキャッシュの使用

ニアキャッシュは Hot Rod C# クライアントの任意のキャッシュで、ユーザーの近くに最近アクセスされたデータを保持することで、頻繁に使用されるデータへのアクセスをより迅速にします。このキャッシュは、バックグラウンドでリモートサーバーに同期されたローカルの Hot Rod クライアントキャッシュとして動作します。

重要

ニアキャッシュは、Red Hat JBoss Data Grid 7.1 の Hot Rod C# クライアントでは技術プレビューの機能となります。

ニアキャッシュをプログラムを使用して ConfigurationBuilder で有効にするには、以下の例のように NearCache() メソッドを使用します。

ConfigurationBuilder conf = new ConfigurationBuilder();
conf.AddServer().Host("127.0.0.1").Port(11222)

// Define a Near Cache that contains up to 10 entries
.NearCache().Mode(NearCacheMode.INVALIDATED).MaxEntries(10);

ニアキャッシュの動作の設定には、以下のメソッドが使用されます。

  • NearCache() - さらに変更を追加できる NearCacheConfigurationBuilder を定義します。
  • Mode(NearCacheMode mode) - NearCacheMode を渡す必要があります。デフォルトは DISABLED で、ニアキャッシュはすべて無効になります。
  • MaxEntries(int maxEntries) - ニヤキャッシュに含まれるエントリーの最大数を示します。ニアキャッシュが満杯になると、最も古いエントリーがエビクトされます。この値を 0 に設定すると、バインドされないニアキャッシュが定義されます。

ニアキャッシュのエントリーは、イベントを介してリモートキャッシュとのアライメントを維持します。サーバーで変更が発生すると、適切なイベントがクライアントへ送信され、ニアキャッシュを更新します。

13.9.11. Hot Rod C# クライアントを使用したスクリプトの実行

Hot Rod C# クライアントを使用すると、リモート実行を介してタスクを直接 Red Hat JBoss Data Grid サーバーで実行できます。この機能はデータに近いロジックを実行し、クラスターのノードすべてのリソースを利用します。タスクはサーバーインスタンスにデプロイでき、デプロイ後にプログラムを使用して実行できます。

タスクのインストール

___script_cachePut(string name, string script) メソッドが使用されると、タスクはサーバーにインストールされます。スクリプト名の拡張はスクリプトの実行に使用されるエンジンを判断しますが、これはスクリプト自体のメタデータによって上書きされます。

以下の例はスクリプトをインストールします。

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Infinispan.HotRod;
using Infinispan.HotRod.Config;

namespace RemoteExec
{
    /// <summary>
    /// This sample code shows how to perform a server remote execution using the C# client
    /// </summary>
    class RemoteExec
    {
        static void Main(string[] args)
        {
            // Cache manager setup
            RemoteCacheManager remoteManager;
            IMarshaller marshaller;
            ConfigurationBuilder conf = new ConfigurationBuilder();
            conf.AddServer().Host("127.0.0.1").Port(11222).ConnectionTimeout(90000).SocketTimeout(6000);
            marshaller = new JBasicMarshaller();
            conf.Marshaller(marshaller);
            remoteManager = new RemoteCacheManager(conf.Build(), true);

            // Install the .js code into the Infinispan __script_cache
            const string SCRIPT_CACHE_NAME = "___script_cache";
            string valueScriptName = "getValue.js";
            string valueScript = "// mode=local,language=javascript\n "
                 + "var cache = cacheManager.getCache(\"namedCache\");\n "
                 + "var ct = cache.get(\"accessCounter\");\n "
                 + "var c = ct==null ? 0 : parseInt(ct);\n "
                 + "cache.put(\"accessCounter\",(++c).toString());\n "
                 + "cache.get(\"privateValue\") ";
            string accessScriptName = "getAccess.js";
            string accessScript = "// mode=local,language=javascript\n "
                + "var cache = cacheManager.getCache(\"namedCache\");\n "
                + "cache.get(\"accessCounter\")";
            IRemoteCache<string, string> scriptCache = remoteManager.GetCache<string, string>(SCRIPT_CACHE_NAME);
            IRemoteCache<string, string> testCache = remoteManager.GetCache<string, string>("namedCache");
            scriptCache.Put(valueScriptName, valueScript);
            scriptCache.Put(accessScriptName, accessScript);

タスクの実行

インストール後、タスクは Execute(string name, Dictionary<string, string> scriptArgs) メソッドを使用して実行されます。このメソッドには、実行するスクリプトの名前と実行に必要な引数を指定します。

以下の例はスクリプトを実行します。

            // This example continues the previous codeblock
            testCache.Put("privateValue", "Counted Access Value");
            Dictionary<string, string> scriptArgs = new Dictionary<string, string>();
            byte[] ret1 = testCache.Execute(valueScriptName, scriptArgs);
            string value = (string)marshaller.ObjectFromByteBuffer(ret1);
            byte[] ret2 = testCache.Execute(accessScriptName, scriptArgs);
            string accessCount = (string)marshaller.ObjectFromByteBuffer(ret2);
            Console.Write("Return value is '" + value + "' and has been accessed '" + accessCount + "' times.");

        }
    }
}

13.9.12. 相互運用性を維持するための文字列マーシャラー

文字列互換性マーシャラーを使用するには、以下の例のように CompatibilityMarshaller のインスタンスを ConfigurationBuilder オブジェクトの Marshaller() メソッドに渡します。

ConfigurationBuilder builder = new ConfigurationBuilder();
builder.Marshaller(new CompatibilityMarshaller());
RemoteCacheManager cacheManager = new RemoteCacheManager(builder.build(), true);
IRemoteCache<String, String> cache = cacheManager.GetCache<String, String>();
[....]
cache.Put("key", "value");
[...]
cache.Get("key");
[...]
注記

非文字列キー/値を格納または取得しようとすると、HotRodClientException が発生します。

13.10. Hot Rod Node.js クライアント

13.10.1. Hot Rod Node.js クライアント

Hot Rod Node.js クライアントは非同期型のイベント駆動クライアントで、Node.js ユーザーは Red Hat JBoss Data Grid サーバーとの通信が可能です。このクライアントは、スクリプトの実行および格納、キャッシュリスナーの利用、完全なクラスタートポロジーの受信など、Java クライアントの多くの機能をサポートします。

非同期操作の結果は Promise インスタンスで提供されるため、クライアントは簡単に複数の呼び出しをチェーンでき、エラーの処理を一元化できます。

13.10.2. Hot Rod Node.js クライアントのインストール

Hot Rod Node.js クライアントは別のディストリビューションに含まれているため、Red Hat JBoss Data Grid とは別にダウンロードする必要があります。以下の手順にしたがってこのクライアントをインストールします。

手順: Hot Rod Node.js クライアントのインストール

  1. Red Hat カスタマーポータルから jboss-datagrid-7.1.0-nodejs-client.zip をダウンロードします。
  2. ダウンロードしたアーカイブを展開します。
  3. 以下のコマンドのように、npm を使用して tarball をインストールします。

    npm install /path/to/jboss-datagrid-7.1.0-nodejs-client/infinispan-0.4.0-redhat-SNAPSHOT.tgz

13.10.3. Hot Rod Node.js の要件

Hot Rod Node.js を使用するには、以下の要件を満たす必要があります。

  • Node.js バージョン 0.10 以上。
  • Red Hat JBoss Data Grid サーバーインスタンス 7.0.0 以上。

13.10.4. Hot Rod Node.js の基本機能

以下の例は Red Hat JBoss Data Grid サーバーに接続し、データの配置や取得などの基本操作を実行する方法を示しています。以下の例では、Red Hat JBoss Data Grid サーバーがデフォルトの localhost:11222 で利用できることを前提としています。

var infinispan = require('infinispan');

// Obtain a connection to the JBoss Data Grid server
// As no cache is specified all operations will occur on the 'default' cache
var connected = infinispan.client({port: 11222, host: '127.0.0.1'});

connected.then(function (client) {

  // Attempt to put a value in the cache.
  var clientPut = client.put('key', 'value');

  // Retrieve the value just placed
  var clientGet = clientPut.then(
      function() { return client.get('key'); });

  // Print out the value that was retrieved
  var showGet = clientGet.then(
      function(value) { console.log('get(key)=' + value); });

  // Disconnect from the server
  return showGet.finally(
      function() { return client.disconnect(); });
}).catch(function(error) {

  // Log any errors received
  console.log("Got error: " + error.message);

});

名前付きキャッシュへの接続

特定のキャッシュに接続するには、以下の例のように Red Hat JBoss Data Grid サーバーインスタンスの場所を指定するときに cacheName 属性を定義します。

var infinispan = require('infinispan');

// Obtain a connection to the JBoss Data Grid server
// and connect to namedCache
var connected = infinispan.client(
  {port: 11222, host: '127.0.0.1'}, {cacheName: 'namedCache'});

connected.then(function (client) {

  // Log the result of the connection
  console.log('Connected to `namedCache`');

  // Disconnect from the server
  return client.disconnect();

}).catch(function(error) {

  // Log any errors received
  console.log("Got error: " + error.message);

});

データセットの使用

putAll および getAll メソッドを使用すると、単一のエントリーだけでなく、データセットを配置または取得できます。この操作の例を以下に示します。

var infinispan = require('infinispan');

// Obtain a connection to the JBoss Data Grid server
// As no cache is specified all operations will occur on the 'default' cache
var connected = infinispan.client({port: 11222, host: '127.0.0.1'});

connected.then(function (client) {
  var data = [
    {key: 'multi1', value: 'v1'},
    {key: 'multi2', value: 'v2'},
    {key: 'multi3', value: 'v3'}];

  // Place all of the key/value pairs in the cache
  var clientPutAll = client.putAll(data);

  // Obtain the values for two of the keys
  var clientGetAll = clientPutAll.then(
    function() { return client.getAll(['multi2', 'multi3']); });

  // Print out the values obtained.
  var showGetAll = clientGetAll.then(
    function(entries) {
      console.log('getAll(multi2, multi3)=%s', JSON.stringify(entries));
    }
  );

  // Obtain an iterator for the cache
  var clientIterator = showGetAll.then(
    function() { return client.iterator(1); });

  // Iterate over the entries in the cache, printing the values
  var showIterated = clientIterator.then(
    function(it) {
      function loop(promise, fn) {
        // Simple recursive loop over iterator's next() call
        return promise.then(fn).then(function (entry) {
          return !entry.done ? loop(it.next(), fn) : entry.value;
        });
      }

      return loop(it.next(), function (entry) {
        console.log('iterator.next()=' + JSON.stringify(entry));
        return entry;
      });
    }
  );

  // Clear the cache of all values
  var clientClear = showIterated.then(
    function() { return client.clear(); });

  // Disconnect from the server
  return clientClear.finally(
    function() { return client.disconnect(); });

}).catch(function(error) {

  // Log any errors received
  console.log("Got error: " + error.message);

});

13.10.5. Hot Rod Node.js の条件付き操作

Hot Rod プロトコルは、キーに関連する各値だけでなく、メタデータも格納します。getWithMetadata は値とキーに関連するメタデータを取得します。

以下はメタデータを利用する例になります。

var infinispan = require('infinispan');

// Obtain a connection to the JBoss Data Grid server
// As no cache is specified all operations will occur on the 'default' cache
var connected = infinispan.client({port: 11222, host: '127.0.0.1'});

connected.then(function (client) {

  // Attempt to put a value in the cache if it does not exist
  var clientPut = client.putIfAbsent('cond', 'v0');

  // Print out the result of the put operation
  var showPut = clientPut.then(
      function(success) { console.log(':putIfAbsent(cond)=' + success); });

  // Replace the value in the cache
  var clientReplace = showPut.then(
      function() { return client.replace('cond', 'v1'); } );

  // Print out the result of the replace
  var showReplace = clientReplace.then(
      function(success) { console.log('replace(cond)=' + success); });

  // Obtain the value and metadata
  var clientGetMetaForReplace = showReplace.then(
      function() { return client.getWithMetadata('cond'); });

  // Replace the value only if the version matches
  var clientReplaceWithVersion = clientGetMetaForReplace.then(
      function(entry) {
        console.log('getWithMetadata(cond)=' + JSON.stringify(entry));
        return client.replaceWithVersion('cond', 'v2', entry.version);
      }
  );

  // Print out the result of the previous replace
  var showReplaceWithVersion = clientReplaceWithVersion.then(
      function(success) { console.log('replaceWithVersion(cond)=' + success); });

  // Obtain the value and metadata
  var clientGetMetaForRemove = showReplaceWithVersion.then(
      function() { return client.getWithMetadata('cond'); });

  // Remove the value only if the version matches
  var clientRemoveWithVersion = clientGetMetaForRemove.then(
      function(entry) {
        console.log('getWithMetadata(cond)=' + JSON.stringify(entry));
        return client.removeWithVersion('cond', entry.version);
      }
  );

  // Print out the result of the previous remove
  var showRemoveWithVersion = clientRemoveWithVersion.then(
      function(success) { console.log('removeWithVersion(cond)=' + success)});

  // Disconnect from the server
  return showRemoveWithVersion.finally(
      function() { return client.disconnect(); });

}).catch(function(error) {

  // Log any errors received
  console.log("Got error: " + error.message);

});

13.10.6. Hot Rod Node.js のデータセット

クライアントは接続を定義するときに複数のサーバーアドレスを指定できます。複数のサーバーが定義されると、正常にノードへの接続が確立されるまで各サーバーをループします。この設定の例を以下に示します。

var infinispan = require('infinispan');

// Accepts multiple addresses and fails over if connection not possible
var connected = infinispan.client(
  [{port: 99999, host: '127.0.0.1'}, {port: 11222, host: '127.0.0.1'}]);

connected.then(function (client) {

  // Obtain a list of all members in the cluster
  var members = client.getTopologyInfo().getMembers();

  // Print out the list of members
  console.log('Connected to: ' + JSON.stringify(members));

  // Disconnect from the server
  return client.disconnect();

}).catch(function(error) {

  // Log any errors received
  console.log("Got error: " + error.message);

});

13.10.7. Hot Rod Node.js のリモートイベント

Hot Rod Node.js クライアントはリモートキャッシュリスナーをサポートします。これらのリスナーは addListener メソッドを使用して追加できます。このメソッドはイベントタイプ (createmodifyremove、および expiry) と関数コールバックをパラメーターとして取ります。リモートイベントリスナーの詳細は、リモートイベントリスナー (Hot Rod) を参照してください。例を以下に示します。

var infinispan = require('infinispan');
var Promise = require('promise');

var connected = infinispan.client({port: 11222, host: '127.0.0.1'});

connected.then(function (client) {

  var clientAddListenerCreate = client.addListener(
    'create', function(key) { console.log('[Event] Created key: ' + key); });

  var clientAddListeners = clientAddListenerCreate.then(
    function(listenerId) {
      // Multiple callbacks can be associated with a single client-side listener.
      // This is achieved by registering listeners with the same listener id
      // as shown in the example below.
      var clientAddListenerModify = client.addListener(
        'modify', function(key) { console.log('[Event] Modified key: ' + key); },
        {listenerId: listenerId});

      var clientAddListenerRemove = client.addListener(
        'remove', function(key) { console.log('[Event] Removed key: ' + key); },
        {listenerId: listenerId});

      return Promise.all([clientAddListenerModify, clientAddListenerRemove]);
    });

  var clientCreate = clientAddListeners.then(
    function() { return client.putIfAbsent('eventful', 'v0'); });

  var clientModify = clientCreate.then(
    function() { return client.replace('eventful', 'v1'); });

  var clientRemove = clientModify.then(
    function() { return client.remove('eventful'); });

  var clientRemoveListener =
        Promise.all([clientAddListenerCreate, clientRemove]).then(
          function(values) {
            var listenerId = values[0];
            return client.removeListener(listenerId);
          });

  return clientRemoveListener.finally(
    function() { return client.disconnect(); });

}).catch(function(error) {

  console.log("Got error: " + error.message);

});

13.10.8. クラスターと動作する Hot Rod Node.js

複数の Red Hat JBoss Data Grid サーバーインスタンスをクラスター化してフェイルオーバーおよびスケールアップの機能を提供できます。クラスターとの動作は単一インスタンスを使用した場合と大変似ていますが、以下を考慮する必要があります。

  • クライアントは、クラスターの大きさに関わらず、サーバークラスター全体の情報を受け取るために単一のサーバーのアドレスのみを認識する必要があります。
  • 分散キャッシュでは、サーバーによって使用される一貫した同じハッシュアルゴリズムを使用してキーベースの操作がクラスターでルーティングされます。そのため、追加のネットワークホップを必要とせずに、クライアントはキーの場所を特定できます。
  • 分散キャッシュでは、複数キー操作またはキーなし操作はラウンドロビン形式でルーティングされます。
  • レプリケートされたキャッシュおよびインバリデートされたキャッシュでは、キーベース、複数キー、またはキーなしであるかに関わらず、すべての操作はラウンドロビン形式でルーティングされます。

すべてのルーティングとフェイルオーバーはクライアントに透過的であるため、クラスターに対して実行された操作は上記で実行されたコードサンプルと同じように見えます。

以下の例を使用するとクラスタートポロジーを取得できます。

var infinispan = require('infinispan');

var connected = infinispan.client({port: 11322, host: '127.0.0.1'});

connected.then(function (client) {

  var members = client.getTopologyInfo().getMembers();

  // Should show all expected cluster members
  console.log('Connected to: ' + JSON.stringify(members));

  // Add your own operations here...

  return client.disconnect();

}).catch(function(error) {

  // Log any errors received
  console.log("Got error: " + error.message);

});

13.10.9. サイトと動作する Hot Rod Node.js

複数の Red Hat JBoss Data Grid サーバークラスターをデプロイし、各クラスターが異なるサイトに属するようにすることができます。このようなデプロイメントは、あるクラスターから別のクラスター (地理的に異なる場所にある可能性がある) にデータをバックアップできるようにするために行われます。Node.js クライアント実装はクラスター内のノードの間でフェイルオーバーでき、元のクラスターが応答しなくなった場合は全体を他のクラスターにフェイルオーバーできます。クラスター間でのフェイルオーバーを可能にするには、すべての Red Hat JBoss Data Grid サーバーがクロスデータセンターレプリケーションで設定されている必要があります。この手順は、Red Hat JBoss Data Grid の Administration and Configuration Guide を参照してください。

フェイルオーバーが発生した場合、クライアントの代替クラスターへの接続は、例外が発生して代替クラスターが利用できなくなるまで維持されます。利用できなくなると、元のサーバー設定を含む定義された他のクラスターを試行します。

クロスデータセンターレプリケーションがサーバー上で設定されたら、クライアントは代替クラスターの設定を提供し、設定した各クラスターに対して 1 つ以上のホスト/ポートペアの詳細情報を指定する必要があります。以下に例を示します。

var connected = infinispan.client({port: 11322, host: '127.0.0.1'},
  {
    clusters: [
      {
        name: 'LON',
        servers: [{port: 1234, host: 'LONA1'}]
      },
      {
        name: 'NYC',
        servers: [{port: 2345, host: 'NYCB1'}, {port: 3456, host: 'NYCB2'}]
      }
    ]
  });

13.10.9.1. 手動クラスター切り替え

自動サイトフェイルオーバーの他にも、Node.js クライアントは以下のメソッドのいずれかを呼び出してサイトクラスターの手動で切り替えることができます。

  • switchToCluster(clusterName) - クライアントを事前定義されたクラスター名に強制的に切り替えます。
  • switchToDefaultCluster() - クライアントをクライアント設定で定義された最初のサーバーに強制的に切り替えます。

たとえば、手動で NYC クラスターへ切り替える場合は以下を使用できます。

var connected = infinispan.client({port: 11322, host: '127.0.0.1'},
  {
    clusters: [
      {
        name: 'LON',
        servers: [{port: 1234, host: 'LONA1'}]
      },
      {
        name: 'NYC',
        servers: [{port: 2345, host: 'NYCB1'}, {port: 3456, host: 'NYCB2'}]
      }
    ]
  });

connected.then(function (client) {

  var switchToB = client.getTopologyInfo().switchToCluster('NYC');
  [...]
  });

13.11. Hot Rod C++ と Hot Rod Java クライアント間の相互運用性

Red Hat JBoss Data Grid は、構造化データにアクセスするために Hot Rod Java と Hot Rod C++ クライアント間の相互運用性を提供します。これは、Google の Protobuf 形式を使用してデータを構造化およびシリアライズすることにより可能になります。

たとえば、言語間の相互運用性を使用すると、Hot Rod C++ クライアントが Protobuf を使用して構造化およびシリアライズされた次の Person オブジェクトを記述し、Hot Rod Java クライアントが Protobuf として構造化された同じ Person オブジェクトを読み取ることができます。

言語間の相互運用性の使用

package sample;
message Person {
    required int32 age = 1;
    required string name = 2;
}

C++ と Hot Rod Java クライアント間の相互運用性は基本データタイプ、文字列、バイトアレイにおいて完全にサポートされています。Protobuf と Protostream はこれらのタイプの相互運用性のために必要ありません。

13.12. サーバーと Hot Rod クライアントバージョン間の互換性

Hot Rod Java、Hot Rod C++、および Hot Rod C# などの Hot Rod クライアントは異なるバージョンの Red Hat JBoss Data Grid サーバーと互換性があります。このサーバーのバージョンは、複数の異なる Hot Rod クライアントと共に実行するために最新バージョンである必要があります。

注記

既知の問題を防ぐために、移行またはアップグレードの場合を除き、同じバージョンの Hot Rod クライアントおよび Red Hat JBoss Data Grid サーバーを使用することをお勧めします。

以下のシナリオを見てみましょう。

シナリオ 1: サーバーが Hot Rod クライアントよりも新しいバージョンで実行される。

以下の影響がクライアント側に及ぶことが考えられます。

  • クライアントには、プロトコルの最新改良によるメリットはない。
  • クライアントはサーバー側のバージョンで修正されている既知の問題に直面する可能性がある。
  • クライアントは現在のバージョンと以前のバージョンで利用可能な機能のみを使用できる。

シナリオ 2: Hot Rod クライアントがサーバーよりも新しいバージョンで実行される。

Hot Rod クライアントが Red Hat JBoss Data Grid サーバーに接続される場合、その接続は例外エラーを出して拒否されます。クライアント側のプロパティー infinispan.client.hotrod.protocol_version を設定するか、ConfigurationBuilderprotocolVersion(String version) を使用すると、クライアントを既知のプロトコルバージョンにダウングレードできます。どちらかの方法でクライアントのバージョンをダウングレードすると、適切なバージョンが含まれる String が渡されるはずです。この場合、クライアントはサーバーに接続できますが、そのバージョンの機能に制限されます。このプロトコルのバージョンでサポートされないコマンドは機能せず、例外が発生します。さらに、この場合のトポロジー情報は効率的でない可能性があります。

クライアントの Hot Rod プロトコルバージョンのダウングレード

以下のコード例は、protocolVersion(String version) メソッドを使用してバージョンをダウングレードする方法を示しています。

Configuration config = new ConfigurationBuilder()
    [...]
    .protocolVersion("2.2")
    .build();
注記

Red Hat サポートの指示を受けずにこの方法を使用することは推奨されません。

以下の表は、異なる Hot Rod クライアントとサーバーのバージョン間の互換性についての詳細情報です。

表13.78 Hot Rod プロトコルとサーバーの互換性

Red Hat JBoss Data Grid サーバーのバージョンHot Rod プロトコルのバージョン

Red Hat JBoss Data Grid 7.1.0

Hot Rod 2.5 以上

Red Hat JBoss Data Grid 7.0.0

Hot Rod 2.5 以上

パート II. Red Hat JBoss Data Grid での Infinispan クエリーの作成および使用

第14章 Infinispan クエリーの使用

14.1. はじめに

Red Hat JBoss Data Grid のライブラリーモードで Querying API を使用すると、キーではなく値のプロパティーを使用してグリッドでエントリーを検索できます。以下のような機能が提供されます。

  • キーワード、範囲、ファジー、ワイルドカード、およびフレーズのクエリー
  • クエリーの組み合わせ
  • クエリー結果のソート、フィルター、およびページ編集

Apache Lucene および Hibernate Search をベースとしたこの API は Red Hat JBoss Data Grid でサポートされます。さらに、Red Hat JBoss Data Grid はインデックスを使用しない検索とインデックスを使用する検索の両方を許可する代替のメカニズムを提供します。詳細は Infinispan Query DSL を参照してください。

クエリーの有効化

リモートクライアントサーバーモードでは、Querying API はデフォルトで有効になっています。ライブラリーモードで有効にする方法は Red Hat JBoss Data Grid の Administration and Configuration Guide を参照してください。

14.2. Red Hat JBoss Data Grid のクエリーのインストール

Red Hat JBoss Data Grid では、クエリーの実行に必要な JAR ファイルは Red Hat JBoss Data Grid のライブラリーモードおよびリモートクライアントサーバーモードのダウンロード内にパッケージ化されています。

Red Hat JBoss Data Grid の ダウンロードおよびインストールに関する詳細は、 Getting Started GuideDownload and Install JBoss Data Grid の章を参照してください。

さらに、以下の Maven 依存関係を定義する必要があります。

<dependency>
 <groupId>org.infinispan</groupId>
 <artifactId>infinispan-embedded-query</artifactId>
 <version>${version.infinispan}</version>
</dependency>
警告

Infinispan Query API は Hibernate Search と Lucene API を直接公開し、infinispan-embedded-query.jar ファイル内に埋め込むことはできません。他のバージョンの Hibernate Search と Lucene が infinispan-embedded-query と同じデプロイメントに含まれないようにしてください。これらが含まれると、クラスパスの競合が発生する原因となり、予期せぬ動作が実行されます。

14.3. Red Hat JBoss Data Grid でのクエリー

14.3.1. Hibernate Search およびクエリーモジュール

Red Hat JBoss Data Grid では、ユーザーは特定の項目を保存されたデータセット全体でクエリーできます。アプリケーションは常に特定のキーを認識できるわけではありませんが、クエリーモジュールを使用すると値の異なる部分をクエリーできます。

プロパティーの一部を基にしてオブジェクトを検索することができます。例を以下に示します。

  • 赤い車をすべて読み出し (メタデータの完全一致)。
  • 特定トピックに関するすべての本を検索 (完全テキスト検索および関連度スコア)

データの完全一致は、MapReduce 関数で実装することもできますが、完全テキストおよび関連度ベースのスコアはクエリーモジュールを介してのみ実行できます。

警告

現在、クエリー機能はリッチドメインオブジェクトを対象にしており、プリミティブ値は現在クエリーではサポートされていません。'

14.3.2. Apache Lucene およびクエリーモジュール

分散されたグリッドに保存されたデータセット全体でクエリーを実行するため、Red Hat JBoss Data Grid は Apache Lucene のインデックス化ツールと Hibernate Search の機能を利用します。

  • Apache Lucene はドキュメントインデックス化ツールおよび検索エンジンです。JBoss Data Grid は Apache Lucene 5.5.1 を使用します。
  • JBoss Data Grid のクエリーモジュールは、Hibernate Search をベースとしたツールキットです。Java オブジェクトを、Apache Lucene によってインデックス化およびクエリー可能なドキュメントと似た形式に縮小します。

JBoss Data Grid では、クエリーモジュールは Hibernate Search のインデックス化アノテーションが付けられた値をインデックス化し、Apache Lucene を基にインデックスを更新します。

Hibernate Search は、データに保存されたエントリーの変更を阻止し、対応するインデックス化操作を生成します。

14.4. インデックス化

14.4.1. インデックス化

インデックス化が設定されると、クエリーモジュールは追加、更新、または削除されたキャッシュエントリーを透過的にインデックス化します。インデックスはクエリーのパフォーマンスを向上しますが、更新中は追加のオーバーヘッドが発生します。インデックスを使用しないクエリーに関する詳細は、 Infinispan Query DSL を参照してください。

グリッドにすでに存在するデータに対しては、最初の Lucene インデックスを作成します。関連するプロパティーとアノテーションが追加された後、インデックスの再構築 に示された最初のバッチインデックスをトリガーします。

14.4.2. トランザクションおよび非トランザクションキャッシュによるインデックス化

Red Hat JBoss Data Grid では、トランザクションとインデックス化の関係は次のようになります。

  • トランザクションキャッシュである場合、コミット処理の後にリスナーを使用して (コミット後のリスナー) インデックスの更新が適用されます。インデックスの更新に失敗しても書き込みに失敗しません。
  • 非トランザクションキャッシュである場合、イベント完了後に動作するリスナー (イベント後のリスナー) を使用してインデックスの更新が適用されます。インデックスの更新に失敗しても書き込みに失敗しません。

14.4.3. プログラムを使用したインデックス化設定

インデックス化は、XML 設定ファイルを使用せずにプログラムを使用して設定できます。

この例では、Red Hat JBoss Data Grid はプログラムによって起動されます。また、グリッドに格納され、クラスにアノテーションを付けずに 2 つのプロパティーを使用して検索可能な Author オブジェクトもマップします。

プログラムを使用したインデックス化設定

SearchMapping mapping = new SearchMapping();
mapping.entity(Author.class).indexed().providedId()
        .property("name", ElementType.METHOD).field()
        .property("surname", ElementType.METHOD).field();

Properties properties = new Properties();
properties.put(org.hibernate.search.cfg.Environment.MODEL_MAPPING, mapping);
properties.put("[other.options]", "[...]");

Configuration infinispanConfiguration = new ConfigurationBuilder()
        .indexing()
        .index(Index.LOCAL)
        .withProperties(properties)
        .build();

DefaultCacheManager cacheManager = new DefaultCacheManager(infinispanConfiguration);

Cache<Long, Author> cache = cacheManager.getCache();
SearchManager sm = Search.getSearchManager(cache);

Author author = new Author(1, "FirstName", "Surname");
cache.put(author.getId(), author);

QueryBuilder qb = sm.buildQueryBuilderForClass(Author.class).get();
Query q = qb.keyword().onField("name").matching("FirstName").createQuery();
CacheQuery cq = sm.getQuery(q, Author.class);
Assert.assertEquals(cq.getResultSize(), 1);

14.4.4. インデックスの再構築

Lucene インデックスは、キャッシュ内のデータストアから再構築することによって、必要な場合に再構築できます。

インデックスは以下の場合に再構築する必要があります。

  • タイプでインデックス化されている内容の定義が変更されている。
  • Analyser などのインデックスの定義方法に影響を与えるパラメーターが変更されている。
  • インデックスがシステム管理者のエラーにより、破壊または破損している。

インデックスを再構築するには、以下のように MassIndexer への参照を取得し、開始します。

SearchManager searchManager = Search.getSearchManager(cache);
searchManager.getMassIndexer().start();

この操作はグリッド内のすべてのデータを再処理するため、時間がかかる場合があります。

14.5. 検索

検索を実行するには、Lucene クエリーを作成します (Lucene ベースのクエリー API を使用した Lucene クエリーの構築 を参照)。クエリーを org.infinispan.query.CacheQuery でラップして Lucene ベースの API から必要な機能を取得します。以下のコードはインデックス化されたフィールドに対してクエリーを準備します。このコードを実行すると、Book のリストが返されます。

Infinispan クエリーを使用した検索の作成および実行

QueryBuilder qb = Search.getSearchManager(cache).buildQueryBuilderForClass(Book.class).get();

org.apache.lucene.search.Query query = qb
    .keyword()
    .onFields("title", "author")
    .matching("Java rocks!")
    .createQuery();

// wrap Lucene query in a org.infinispan.query.CacheQuery
CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(query);

List list = cacheQuery.list();

第15章 オブジェクトのアノテーション付けおよびクエリー

15.1. オブジェクトのアノテーション付けおよびクエリー

インデックス化が有効になったら、Red Hat JBoss Data Grid に保存されたカスタムオブジェクトに適切なアノテーションを割り当てる必要があります。

基本的な要件として、インデックス化されるすべてのオブジェクトに以下のアノテーションを付ける必要があります。

  • @Indexed

さらに、検索されるオブジェクト内のすべてのフィールドに @Field アノテーションを付ける必要があります。

@Field アノテーションをオブジェクトに追加

@Indexed
public class Person implements Serializable {
    @Field(store = Store.YES)
    private String name;
    @Field(store = Store.YES)
    private String description;
    @Field(store = Store.YES)
    private int age;
}

その他のアノテーションおよびオプションについては、ドメインオブジェクトのインデックス構造へのマッピング を参照してください。

重要

JBoss EAP モジュールを JBoss Data Grid と使用し、ドメインモデルをモジュールとして使用する場合、スロット 7.1org.infinispan.query 依存関係を module.xml ファイルに追加します。org.infinispan.query 依存関係がないと、カスタムアノテーションはクエリーによって取得されず、エラーが発生します。

15.2. アノテーションによるトランスフォーマーの登録

各値のキーもインデックス化する必要があり、キーインスタンスを文字列に変換する必要があります。

Red Hat JBoss Data Grid には共通のプリミティブをエンコードするためにデフォルトのトランスメーションルーティングが一部含まれていますが、カスタムキーを使用するには org.infinispan.query.Transformer の実装を提供する必要があります。

以下の例は、org.infinispan.query.Transformer を使用してキータイプにアノテーションを付ける方法を示しています。

キータイプのアノテーション付け

@Transformable(transformer = CustomTransformer.class)
public class CustomKey {

}

public class CustomTransformer implements Transformer {
    @Override
    public Object fromString(String s) {
        return new CustomKey(...);
    }

    @Override
    public String toString(Object customType) {
        CustomKey ck = (CustomKey) customType;
        return ck.toString();
    }
}

2 つのメソッドは 1 対 1 の対応関係 (Biunique correspondence) を実装する必要があります。

たとえば、オブジェクト A は以下が true である必要があります。

1 対 1 の対応関係 (Biunique correspondence)

A.equals(transformer.fromString(transformer.toString(A));

これは、トランスフォーマーはタイプ A のオブジェクトの適切なトランスフォーマー実装であることを前提とします。

15.3. クエリーの例

以下は、Red Hat JBoss Data Grid でクエリーを設定および実行する方法の例になります。

この例では、Person オブジェクトは以下を使用してアノテーションが付けられています。

Person オブジェクトのアノテーション付け

@Indexed
public class Person implements Serializable {
    @Field(store = Store.YES)
    private String name;
    @Field
    private String description;
    @Field(store = Store.YES)
    private int age;
}

複数の Person オブジェクトが JBoss Data Grid に保存されていることを前提とした場合、クエリーを使用してこれらのオブジェクトを検索できます。以下のコードは SearchManager および QueryBuilder インスタンスを作成します。

SearchManager および QueryBuilder の作成

SearchManager manager =	Search.getSearchManager(cache);
QueryBuilder builder = manager.buildQueryBuilderForClass(Person.class) .get();
Query luceneQuery = builder.keyword()
    .onField("name")
    .matching("FirstName")
    .createQuery();

The SearchManager および QueryBuilderLucene クエリーの構築に使用されます。Lucene クエリーは CacheQuery インスタンスを取得するために SearchManager に渡されます。

クエリーの実行

CacheQuery query = manager.getQuery(luceneQuery);
List<Object> results = query.list();
for (Object result : results) {
    System.out.println("Found " + result);
}

この CacheQuery インスタンスにはクエリーの結果が含まれ、リストの作成やクエリーの繰り返しに使用できます。

第16章 ドメインオブジェクトのインデックス構造へのマッピング

16.1. 基本のマッピング

16.1.1. 基本のマッピング

Red Hat JBoss Data Grid では、すべての @Indexed オブジェクトの識別子は値の保存に使用されるキーになります。キーがインデックス化される方法は、@Transformable@ProvidedId、カスタムタイプ、およびカスタム FieldBridge 実装の組み合わせを使用するとカスタマイズできます。

@DocumentId 識別子は JBoss Data Grid の値には適用されません。

Lucene ベースの Query API は、以下の一般的なアノテーションを使用してエンティティーをマップします。

  • @Indexed
  • @Field
  • @NumericField

16.1.2. @Indexed

@Indexed アノテーションはキャッシュされたエントリーをインデックス可能であると宣言します。@Indexed アノテーションが付いてないエントリーはすべて無視されます。

@Indexed でクラスをインデックス可能にする

@Indexed
public class Essay {
}

任意で @Indexed アノテーションの index 属性を指定して、インデックスのデフォルト名を変更することもできます。

16.1.3. @Field

エンティティーの各プロパティーまたは属性をインデックス化できます。プロパティーや属性はデフォルトではアノテーションが付けられていないため、インデックス化の処理では無視されます。@Field アノテーションはプロパティーをインデックス化されたプロパティーとして宣言し、以下の属性を 1 つ以上設定するとインデックス化処理の内容を設定できます。

name
この名前でプロパティーが Lucene Document に保存されます。デフォルトでは JavaBeans の慣例に準拠し、この属性はプロパティー名と同じになります。
store

プロパティーが Lucene インデックスに保存されるかどうかを指定します。プロパティーが保存されると、Lucene Document から元の値で読み出すことができます。これは、要素のインデックス化の有無には関係ありません。有効なオプションは次のとおりです。

  • Store.YES: より多くのインデックス領域を消費しますが、射影を許可します。射影 を参照してください。
  • Store.COMPRESS: プロパティーを圧縮して格納します。この属性は CPU をより消費します。
  • Store.NO: ストレージはありません。これは store 属性のデフォルト設定になります。
index

プロパティーがインデックス化されたかどうかを示します。以下の値を適用できます。

  • Index.NO: インデックス化は適用されません。クエリーで見つけることができません。この設定は検索可能である必要がなく、射影可能なプロパティーに使用されます。
  • Index.YES: 要素はインデックス化され検索可能です。これは index 属性のデフォルト設定になります。
analyze

プロパティーが分析されるかどうかを判断します。analize 属性は、そのコンテンツでプロパティーを検索できるようにします。たとえば、テキストフィールドを分析する必要があっても日付フィールドは分析する必要がない場合があります。以下を使用して analyze 属性を有効または無効にします。

  • Analyze.YES
  • Analyze.NO

analyze 属性はデフォルトで有効になっています。Analyze.YES 設定では、Index.YES 属性でプロパティーがインデックス化される必要があります。

以下の属性はソートに使用され、分析してはいけません。

norms

インデックス時間のブースティング情報を格納するかどうかを判断します。有効な設定は次のとおりです。

  • Norms.YES
  • Norms.NO

この属性のデフォルトは Norms.YES です。norms を無効にするとメモリーを節約できますが、インデックス時のブースティング情報は利用できません。

termVector

単語 (term) と出現頻度 (frequency) のペアを示します。この属性を使用すると、インデックス化中にドキュメント内で term vector を保存できます。デフォルト値は TermVector.NO です。この属性に使用できる設定は次のとおりです。

  • TermVector.YES: 各ドキュメントに term vector を保存します。これにより、同期された 2 つのアレイが生成されます (1 つのアレイには document term が含まれ、もう 1 つのアレイには term の頻度が含まれます)。
  • TermVector.NO: term vector を保存しません。
  • TermVector.WITH_OFFSETS: term vector およびトークンオフセット情報を保存します。これは、TermVector.YES と同じですが、言葉の開始および終了オフセット位置情報が含まれます。
  • TermVector.WITH_POSITIONS: term vector およびトークン位置情報を保存します。これは、TermVector.YES と同じですが、ドキュメントで言葉が発生する順序位置 (ordinal position) が含まれます。
  • TermVector.WITH_POSITION_OFFSETS: term vector、トークン位置、およびオフセット情報を保存します。これは YESWITH_OFFSETS、および WITH_POSITIONS の組み合わせです。
indexNullAs

デフォルトでは null 値は無視され、インデックス化されません。しかし、indexNullAs を使用すると、文字列が null 値のトークンとして挿入されるよう指定することができます。indexNullAs パラメーターを使用する場合、検索クエリーで同じトークンを使用して null 値を検索します。この機能は Analyze.NO と使用する必要があります。この属性の有効な設定は次のとおりです。

  • Field.DO_NOT_INDEX_NULL: この属性のデフォルト値です。この設定は null 値がインデックス化されないことを示します。
  • Field.DEFAULT_NULL_TOKEN: デフォルトの null トークンが使用されることを示します。このデフォルトの null トークンは、default_null_token プロパティーを使用して指定できます。このプロパティーが設定されずに Field.DEFAULT_NULL_TOKEN が指定された場合、デフォルトで null という文字列が使用されます。
警告

カスタムの FieldBridge または TwoWayFieldBridge を実装する場合、null 値のインデックス化の処理は開発者に委ねられます (LuceneOptions.indexNullAs() の JavaDocs を参照してください)。

16.1.4. @NumericField

@NumericField アノテーションは @Field と同じ範囲で指定できます。

@NumericField アノテーションは、Integer、Long、Float、および Double プロパティーに対して指定できます。インデックス化するときにトライ木の構造を使用して値がインデックス化されます。プロパティーが数値のフィールドとしてインデックス化されると、効率的な範囲のクエリーおよびソートが有効になり、標準の @Field プロパティーで同じクエリーを実行するよりも高速に順序付けできます。@NumericField アノテーションは以下の任意のパラメーターを許可します。

  • forField: 数値としてインデックス化される関連する @Field の名前を指定します。プロパティーに 1 つの @Field 宣言以外が含まれる場合は必須になります。
  • precisionStep: トライ木構造がインデックスに保存される方法を変更します。precisionSteps を小さくするとディスク領域の使用量が増え、範囲およびソートクエリーが高速になります。値を大きくすると使用される領域が少なくなり、範囲クエリーのパフォーマンスが通常の @Fields の範囲クエリーに近くなります。precisionStep のデフォルト値は 4 です。

@NumericField は、DoubleLongInteger、および Float のみをサポートします。他の数値型に対して Lucene の同様の機能を使用できないため、他の型はデフォルトまたはカスタムの TwoWayFieldBridge を用いた文字列のエンコーディングを使用する必要があります。

カスタムの NumericFieldBridge を使用することもできます。カスタム設定は、型の変換中に近似が必要になります。以下は、カスタム NumericFieldBridge を定義する例になります。

カスタム NumericFieldBridge の定義

public class BigDecimalNumericFieldBridge extends NumericFieldBridge {
    private static final BigDecimal storeFactor = BigDecimal.valueOf(100);

    @Override
    public void set(String name,
                    Object value,
                    Document document,
                    LuceneOptions luceneOptions) {
        if (value != null) {
            BigDecimal decimalValue = (BigDecimal) value;
            Long indexedValue = Long.valueOf(
                decimalValue
                .multiply(storeFactor)
                .longValue());
            luceneOptions.addNumericFieldToDocument(name, indexedValue, document);
        }
    }

    @Override
    public Object get(String name, Document document) {
        String fromLucene = document.get(name);
        BigDecimal storedBigDecimal = new BigDecimal(fromLucene);
        return storedBigDecimal.divide(storeFactor);
    }
}

16.2. プロパティーを複数回マッピング

異なるインデックス化ストラテジーを使用して、プロパティーをインデックスごとに複数回マッピングする必要があることがあります。たとえば、フィールドでクエリーをソートするには、フィールドが分析されていない必要があります。このプロパティーで単語を基に検索し、ソートも行うには、このプロパティーを 2 回インデックス化する必要があります (分析する回と分析しない回)。@Fields を使用してこの検索を実行できます。例を以下に示します。

@Fields を使用してプロパティーを複数回マッピング

@Indexed(index = "Book")
public class Book {
    @Fields( {
        @Field,
        @Field(name = "summary_forSort", analyze = Analyze.NO, store = Store.YES)
    })
    public String getSummary() {
        return summary;
    }
}

上記の例では、summary が 2 回インデックス化されます。summary としてトークン化される方法で 1 度インデックス化され、summary_forSort として非トークン化される方法でもう 1 度インデックス化されます。@Field が使用される場合、@Fields は 2 つの属性をサポートします。

  • analyzer: プロパティーごとではなくフィールドごとに @Analyzer アノテーションを定義します。
  • bridge: プロパティーごとではなくフィールドごとに @FieldBridge アノテーションを定義します。

16.3. 埋め込みオブジェクトおよび関連するオブジェクト

16.3.1. 埋め込みオブジェクトおよび関連するオブジェクト

関連するオブジェクトと埋め込みオブジェクトはルートエンティティーインデックスの一部としてインデックス化できます。これにより、関連するオブジェクトのプロパティーを基にしたエンティティーの検索が可能になります。

16.3.2. 関連するオブジェクトのインデックス化

以下の例の目的は、Lucene クエリー address.city:Atlanta を使用して、関連する市がアトランタである場所を返すことです。場所フィールドは Place インデックスでインデックス化されます。Place インデックスドキュメントには以下のフィールドも含まれます。

  • address.street
  • address.city

これらのフィールドはクエリーも可能です。

関連付けのインデックス化

@Indexed
public class Place {

    @Field
    private String name;

    @IndexedEmbedded
    @ManyToOne(cascade = {CascadeType.PERSIST, CascadeType.REMOVE})
    private Address address;
}

public class Address {

    @Field
    private String street;

    @Field
    private String city;

    @ContainedIn
    @OneToMany(mappedBy = "address")
    private Set<Place> places;
}

16.3.3. @IndexedEmbedded

@IndexedEmbedded を使用する場合、データは Lucene インデックスで非正規化されます。そのため、Place および Address オブジェクトの変更を反映するために Lucene ベースの Query API を更新し、インデックスを最新の状態にする必要があります。Address の変更時に Lucene ドキュメントが確実に更新されるようにするため、双方向の関係の逆側に @ContainedIn を付けます。@ContainedIn は、エンティティーを示す関連付けと埋め込みオブジェクトを示す関連付けの両方に使用できます。

@IndexedEmbedded アノテーションは入れ子にすることができます。属性には @IndexedEmbedded アノテーションを付けることができます。関連するクラスの属性はメインエントリーインデックスに追加されます。下記の例では、インデックスに以下のフィールドが含まれます。

  • name
  • address.street
  • address.city
  • address.ownedBy_name

入れ子の @IndexedEmbedded および @ContainedIn の使用法

@Indexed
public class Place {
    @Field
    private String name;

    @IndexedEmbedded
    @ManyToOne(cascade = {CascadeType.PERSIST, CascadeType.REMOVE})
    private Address address;
}

public class Address {
    @Field
    private String street;

    @Field
    private String city;

    @IndexedEmbedded(depth = 1, prefix = "ownedBy_")
    private Owner ownedBy;

    @ContainedIn
    @OneToMany(mappedBy = "address")
    private Set<Place> places;
}

public class Owner {
    @Field
    private String name;
}

デフォルトの接頭辞は propertyName. で、従来のオブジェクトナビゲーションの慣例に従います。これをオーバーライドするには ownedBy プロパティーで示されたように prefix 属性を使用します。

注記

接頭辞を空の文字列に設定することはできません。

オブジェクトグラフにクラスの循環依存関係が含まれる場合、depth プロパティーが使用されます。たとえば、OwnerPlace を示す場合がこれに該当します。予期された深さまたはオブジェクトグラフの境界に達した後、クエリーモジュールは属性の追加を停止します。自己参照クラスは循環依存関係の例の 1 つになります。この例では、深さが 1 に設定されているため、Owner@IndexedEmbedded 属性はすべて無視されます。

オブジェクトの関連付けに @IndexedEmbedded を使用すると、Lucene のクエリー構文を使用してクエリーを表現できます。例を以下に示します。

  • 名前に JBoss が含まれ、住所の市が Atlanta である場所を返す場合、Lucene クエリーでは次のようになります。

    +name:jboss +address.city:atlanta
  • 名前に JBoss が含まれ、所有者の名前に Joe が含まれる場所を返す場合、Lucene クエリーでは次のようになります。

    +name:jboss +address.ownedBy_name:joe

この操作は関係結合操作と似ていますが、データが重複されません。そのままの状態では、Lucene インデックスには関連付けの観念がなく、結合操作は存在しません。完全テキストのインデックス速度や機能充実の利点を活かしながら正規化されたリレーショナルモデルを維持すると有用であることがあります。

関連したオブジェクトは @Indexed であることもあります。@IndexedEmbedded がエンティティーを示す場合、関連付けは指向性を持つ必要があり、逆側に @ContainedIn アノテーションを付ける必要があります。このアノテーションを付けないと、関連したエンティティーが更新されたときに Lucene ベースのクエリー API はルートインデックスを更新できません。この例では、 関連する Address インスタンスが更新されると Place インデックスドキュメントが更新されます。

16.3.4. targetElement プロパティー

targetElement パラメーターを使用すると目的のオブジェクト型をオーバーライドできます。 このメソッドは、@IndexedEmbedded アノテーションが付けられたオブジェクト型がデータグリッドおよび Lucene ベースの Query API が目的とするオブジェクト型ではない場合に使用されます。これは、実装の代わりにインターフェースが使用されると発生します。

@IndexedEmbeddedtargetElement プロパティーの使用

@Indexed
public class Address {

    @Field
    private String street;

    @IndexedEmbedded(depth = 1, prefix = "ownedBy_", targetElement = Owner.class)
    private Person ownedBy;

    ...
}

public class Owner implements Person { ... }

16.4. ブースティング

16.4.1. ブースティング

Lucene はブースティングを使用して特定のフィールドやドキュメントの重要度を上げます。Lucene はインデックス時のブースティングと検索時のブースティングを区別します。

16.4.2. 静的なインデックス時ブースティング

インデックス化されたクラスまたはプロパティーの静的なブースト値を定義するには、@Boost アノテーションを使用します。このアノテーションは @Field 内で使用でき、メソッドやクラスレベルで直接指定することもできます。

下記の例は以下を意味します。

  • Essay が検索リストの最上部に達する可能性が 1.7 倍になります。
  • プロパティーの @Field.boost および @Boost は累積的であるため、summary フィールドは 3.0 倍 (2 x 1.5) になり、ISBN フィールドよりも重要度が高くなります。
  • text フィールドの重要度は ISBN フィールドの 1.2 倍になります。

@Boost の異なる使用方法

@Indexed
@Boost(1.7f)
public class Essay {

    @Field(name = "Abstract", store=Store.YES, boost = @Boost(2f))
    @Boost(1.5f)
    public String getSummary() { return summary; }

    @Field(boost = @Boost(1.2f))
    public String getText() { return text; }

    @Field
    public String getISBN() { return isbn; }

}

16.4.3. 動的なインデックス時ブースティング

@Boost アノテーションは静的ブースト係数を定義します。この係数は、実行時のインデックス化されたエンティティーの状態とは関係ありません。ただし、場合によってはブースト係数がエンティティーの実際の状態に依存することがあります。この場合、 @DynamicBoost アノテーションをカスタム BoostStrategy とともに使用します。

@Boost および @DynamicBoost アノテーションはエンティティーとの関連で使用することができ、定義されたブースト係数はすべて累積的です。@DynamicBoost をクラスまたはフィールドレベルで置くことができます。

以下の例では、インデックス化するときに使用される BoostStrategy インターフェースの実装として VIPBoostStrategy を指定することにより、動的なブーストがクラスレベルで定義されます。エンティティー全体が defineBoost メソッドに渡されるか、またはアノテーションが付けられたフィールド/プロパティーの値のみが渡されるかはアノテーションの配置によります。渡されたオブジェクトを正しい型にキャストする必要があります。

動的なブーストの例

public enum PersonType {
    NORMAL,
    VIP
}

@Indexed
@DynamicBoost(impl = VIPBoostStrategy.class)
public class Person {
    private PersonType type;
}

public class VIPBoostStrategy implements BoostStrategy {
    public float defineBoost(Object value) {
        Person person = (Person) value;
        if (person.getType().equals(PersonType.VIP)) {
            return 2.0f;
        }
        else {
            return 1.0f;
        }
    }
}

この例では、VIP のインデックス化された値すべての重要度は VIP でない値の 2 倍になります。

注記

指定の BoostStrategy 実装は、パブリックの引数のないコンストラクターを定義する必要があります。

16.5. 分析

16.5.1. 分析

16.5.2. デフォルトのアナライザーおよびクラス別のアナライザー

デフォルトのアナライザークラスはトークン化されたフィールドをインデックス化するために使用され、default.analyzer プロパティーを用いて設定が可能です。このプロパティーのデフォルト値は org.apache.lucene.analysis.standard.StandardAnalyzer です。

アナライザークラスはエンティティー、プロパティー、および @Field ごとに定義できます。これは、1 つのプロパティーから複数のフィールドがインデックス化されるときに便利です。

以下の例では、 EntityAnalyzer を使用して、name などのトークン化されたプロパティーがすべてインデックス化されます。例外は summary と body で、これらはそれぞれ PropertyAnalyzerFieldAnalyzer によってインデックス化されます。

@Analyzer の異なる使用方法

@Indexed
@Analyzer(impl = EntityAnalyzer.class)
public class MyEntity {

    @Field
    private String name;

    @Field
    @Analyzer(impl = PropertyAnalyzer.class)
    private String summary;

    @Field(analyzer = @Analyzer(impl = FieldAnalyzer.class))
    private String body;
}

注記

1 つのエンティティーで複数のアナライザーを使用しないようにしてください。特に QueryParser を使用する場合はクエリーの構築が複雑になり、結果の予測が難しくなります。フィールドのインデックス化とクエリーに同じアナライザーを使用してください。

16.5.3. 名前付きのアナライザー

クエリーモジュールはアナライザー定義を使用して Analyzer 関数の複雑さに対応します。アナライザー定義は、複数の @Analyzer 宣言による再使用が可能で、以下が含まれます。

  • 名前: 定義の参照に使用される一意の文字列。
  • CharFilters のリスト: 各 CharFilter はトークン化の前に入力文字を事前処理します。CharFilters は文字を追加、変更、および削除できます。一般的な使用例の 1 つが文字の正規化です。
  • Tokenizer: 入力ストリームを個別の単語にトークン化します。
  • フィルターのリスト: 各フィルターは単語を削除または変更します。また、Tokenizer によって提供されたストリームに単語を追加することもあります。

Analyzer はこれらのコンポーネントを複数のタスクに分類し、以下の手順を使用して各コンポーネントの再使用やコンポーネントの柔軟な構築を実現します。

アナライザーの処理

  1. CharFilters は文字入力を処理します。
  2. Tokenizer は文字入力をトークンに変換します。
  3. トークンは TokenFilters によって処理されます。

Lucene ベースの Query API は、Solr アナライザーフレームワークを利用してこのインフラストラクチャーをサポートします。

16.5.4. アナライザーの定義

アナライザー定義は定義後に @Analyzer アノテーションによって再使用されます。

名前によるアナライザーの参照

@Indexed
@AnalyzerDef(name = "customanalyzer")
public class Team {

    @Field
    private String name;

    @Field
    private String location;

    @Field
    @Analyzer(definition = "customanalyzer")
    private String description;
}

@AnalyzerDef によって宣言されたアナライザーインスタンスは、SearchFactory の名前でも利用できます。これは、クエリーの構築時に役立ちます。

Analyzer analyzer = Search.getSearchManager(cache).getAnalyzer("customanalyzer")

クエリーの実行時、フィールドはフィールドのインデックス化に使用されたアナライザーを使用する必要があります。クエリーとインデックス化処理で同じトークンが再使用されます。

16.5.5. Solr の @AnalyzerDef

Maven を使用する場合、必要なすべての Apache Solr 依存関係はアーティファクト org.hibernate:hibernate-search-analyzers の依存関係として定義されるようになりました。以下の依存関係を追加します。

<dependency>
    <groupId>org.hibernate</groupId>
    <artifactId>hibernate-search-analyzers</artifactId>
    <version>${version.hibernate.search}</version>
<dependency>

以下の例では、CharFilter はそのファクトリーによって定義されます。この例では、マッピング文字フィルターが使用され、マッピングファイルに指定されたルールを基にして入力の文字列を置き換えます。この例では、専用の単語プロパティーファイルを読み取って StopFilter フィルターが構築されます。フィルターは大文字と小文字を区別しません。

@AnalyzerDef および Solr フレームワーク

  1. CharFilter の設定

    ファクトリーで CharFilter を定義します。この例では、マッピング CharFilter が使用され、マッピングファイルに指定されたルールを基にして入力の文字を置き換えます。

    @AnalyzerDef(name = "customanalyzer",
        charFilters = {
            @CharFilterDef(factory = MappingCharFilterFactory.class, params = {
                @Parameter(name = "mapping",
                    value =
                        "org/hibernate/search/test/analyzer/solr/mapping-chars.properties")
            })
        },
  2. Tokenizer の定義

    TokenizerStandardTokenizerFactory.class を使用して定義されます。

    @AnalyzerDef(name = "customanalyzer",
        charFilters = {
            @CharFilterDef(factory = MappingCharFilterFactory.class, params = {
                @Parameter(name = "mapping",
                    value =
                        "org/hibernate/search/test/analyzer/solr/mapping-chars.properties")
            })
        },
    
        tokenizer = @TokenizerDef(factory = StandardTokenizerFactory.class)
  3. フィルターのリスト

    ファクトリーでフィルターのリストを定義します。この例では、専用の単語プロパティーファイルを読み取って StopFilter フィルターが構築されます。フィルターは大文字と小文字を区別しません。

    @AnalyzerDef(name = "customanalyzer",
        charFilters = {
            @CharFilterDef(factory = MappingCharFilterFactory.class, params = {
                @Parameter(name = "mapping",
                    value =
                        "org/hibernate/search/test/analyzer/solr/mapping-chars.properties")
            })
        },
    
        tokenizer = @TokenizerDef(factory = StandardTokenizerFactory.class),
        filters = {
    
            @TokenFilterDef(factory = ISOLatin1AccentFilterFactory.class),
            @TokenFilterDef(factory = LowerCaseFilterFactory.class),
            @TokenFilterDef(factory = StopFilterFactory.class, params = {
                @Parameter(name = "words",
                    value= "org/hibernate/search/test/analyzer/solr/stoplist.properties" ),
                @Parameter(name = "ignoreCase", value = "true")
            })
        })
    public class Team {
    }
注記

フィルターと CharFilters は、 @AnalyzerDef アノテーションで定義された順に適用されます。

16.5.6. アナライザーリソースのロード

TokenizersTokenFilters、および CharFiltersStopFilterFactory.class または類義語フィルターを使用して、設定ファイルやメタデータファイルなどのリソースをロードできます。仮想マシンのデフォルトを明示的に指定するには、resource_charset パラメーターを追加します。

特定の文字セットを使用したプロパティーファイルのロード

@AnalyzerDef(name = "customanalyzer",
    charFilters = {
        @CharFilterDef(factory = MappingCharFilterFactory.class, params = {
            @Parameter(name = "mapping",
                value =
                    "org/hibernate/search/test/analyzer/solr/mapping-chars.properties")
        })
    },
    tokenizer = @TokenizerDef(factory = StandardTokenizerFactory.class),
    filters = {
        @TokenFilterDef(factory = ISOLatin1AccentFilterFactory.class),
        @TokenFilterDef(factory = LowerCaseFilterFactory.class),
        @TokenFilterDef(factory = StopFilterFactory.class, params = {
            @Parameter(name="words",
                value= "org/hibernate/search/test/analyzer/solr/stoplist.properties"),
            @Parameter(name = "resource_charset", value = "UTF-16BE"),
            @Parameter(name = "ignoreCase", value = "true")
        })
    })
public class Team {
}

16.5.7. 動的アナライザーの選択

クエリーモジュールは @AnalyzerDiscriminator アノテーションを使用して動的なアナライザーの選択を有効にします。

インデックス化するエンティティーの現在の状態を基にアナライザーを選択できます。これは、特に多言語のアプリケーションで役に立ちます。たとえば、BlogEntry クラスを使用する場合、アナライザーはエントリーの言語プロパティーに依存することができます。このプロパティーに応じて、テキストのインデックス化に適切な言語固有のステマーが選択されます。

Discriminator インターフェースの実装は既存のアナライザー定義の名前を返す必要がありますが、デフォルトのアナライザーがオーバーライドされない場合は null を返す必要があります。

下記の例は、言語パラメーターが de または en のいずれかで、@AnalyzerDefs で指定されることを前提とします。

@AnalyzerDiscriminator の設定

  1. 動的なアナライザーの事前定義

    @AnalyzerDiscriminator には、動的に使用されるすべてのアナライザーを @AnalyzerDef を使用して事前定義する必要があります。動的にアナライザーを選択するために、@AnalyzerDiscriminator アノテーションをクラスまたはエンティティーの特定のプロパティーに配置できます。Discriminator インターフェースの実装は、@AnalyzerDiscriminatorimpl パラメーターを使用して指定できます。

    @Indexed
    @AnalyzerDefs({
        @AnalyzerDef(name = "en",
            tokenizer = @TokenizerDef(factory = StandardTokenizerFactory.class),
            filters = {
                @TokenFilterDef(factory = LowerCaseFilterFactory.class),
                @TokenFilterDef(factory = EnglishPorterFilterFactory.class)
            }),
        @AnalyzerDef(name = "de",
            tokenizer = @TokenizerDef(factory = StandardTokenizerFactory.class),
            filters = {
                @TokenFilterDef(factory = LowerCaseFilterFactory.class),
                @TokenFilterDef(factory = GermanStemFilterFactory.class)
            })
        })
    public class BlogEntry {
    
        @Field
        @AnalyzerDiscriminator(impl = LanguageDiscriminator.class)
        private String language;
    
        @Field
        private String text;
    
        private Set<BlogEntry> references;
    
        // standard getter/setter
    }
  2. Discriminator インターフェースの実装

    Lucene ドキュメントにフィールドを追加するたびに呼び出される getAnalyzerDefinitionName() メソッドを実装します。インデックス化されたエンティティーもインターフェースメソッドに渡されます。

    @AnalyzerDiscriminator がクラスレベルではなく、プロパティーレベルに配置されると value パラメーターが設定されます。この例では、値はこのプロパティーの現在の値を表します。

    public class LanguageDiscriminator implements Discriminator {
        public String getAnalyzerDefinitionName(Object value, Object entity, String field) {
            if (value == null || !(entity instanceof Article)) {
                return null;
            }
            return (String) value;
        }
    }

16.5.8. アナライザーの読み出し

ステミングや音声的近似などを活用するため、ドメインモデルで複数のアナライザーが使用された場合にアナライザーを読み出すことができます。この場合、同じアナライザーを使用してクエリーを構築します。この代わりに、正しいアナライザーを自動的に選択する Lucene ベースの Query API を使用することもできます。詳細は Lucene クエリーの構築 を参照してください。

エンティティーのスコープ指定されたアナライザーは、Lucene プログラム API または Lucene クエリーパーサーのどちらかを使用して読み出すことができます。スコープ指定されたアナライザーは、インデックス化されたフィールドに応じて正しいアナライザーを適用します。個々のフィールドで動作する複数のアナライザーは 1 つのエンティティーで定義できます。スコープ指定されたアナライザーは、これらのアナライザーをコンテキストを認識するアナライザーに統合します。

以下の例では、曲名は 2 つのフィールドでインデックス化されます。

  • 標準のアナライザー: title フィールドで使用されます。
  • ステミングアナライザー: title_stemmed フィールドで使用されます。

クエリーは、検索ファクトリーによって提供されるアナライザーを使用して、目的のフィールドに応じて適切なアナライザーを使用します。

フルテキストクエリーの構築時にスコープ指定されたアナライザーを使用

SearchManager manager = Search.getSearchManager(cache);

org.apache.lucene.queryparser.classic.QueryParser parser = new QueryParser(
        org.apache.lucene.util.Version.LUCENE_5_5_1,
        "title",
        manager.getAnalyzer(Song.class)
);

org.apache.lucene.search.Query luceneQuery =
        parser.parse("title:sky Or title_stemmed:diamond");

// wrap Lucene query in a org.infinispan.query.CacheQuery
CacheQuery cacheQuery = manager.getQuery(luceneQuery, Song.class);

List result = cacheQuery.list();
//return the list of matching objects

注記

@AnalyzerDef によって定義されたアナライザーは、searchManager.getAnalyzer(String) を使用して定義名で取得することもできます。

16.5.9. 使用可能なアナライザー

Apache Solr と Lucene には、デフォルトの CharFilterstokenizers、および filters が複数含まれています。CharFiltertokenizer、および filter ファクトリーの完全リストは http://wiki.apache.org/solr/AnalyzersTokenizersTokenFilters を参照してください。以下の表は、CharFilterstokenizers、および filters の一部を示しています。

表16.1 利用可能な CharFilters の例

ファクトリー説明Parameters追加の依存関係

MappingCharFilterFactory

リソースファイルに指定されたマッピングを基に、1 つ以上の文字を置き換えます。

mapping: 以下の形式を使用したマッピングが含まれるリソースファイルを示します。

                    "á" => "a"
                    "ñ" => "n"
                    "ø" => "o"

なし

HTMLStripCharFilterFactory

標準の HTML タグを削除し、テキストは保持します。

なし

なし

表16.2 利用可能なトークナイザーの例

ファクトリー説明Parameters追加の依存関係

StandardTokenizerFactory

Lucene の標準トークナイザーを使用します。

なし

なし

HTMLStripCharFilterFactory

標準の HTML タグを削除してテキストは保持し、StandardTokenizer へ渡します。

なし

solr-core

PatternTokenizerFactory

指定の正規表現パターンでテキストを改行します。

pattern: トークン化に使用する正規表現。

group: トークンに抽出するパターングループを示します。

solr-core

表16.3 利用可能なフィルターの例

ファクトリー説明Parameters追加の依存関係

StandardFilterFactory

頭字語からピリオドを削除し、単語からアポストロフィー (') を削除します。

なし

solr-core

LowerCaseFilterFactory

すべての言葉を小文字にします。

なし

solr-core

StopFilterFactory

ストップワードのリストと一致する言葉 (トークン) を削除します。

words: ストップワードが含まれるリソースファイルを示します。

ignoreCase: ストップワードを比較するときに case を無視する場合は true、無視しない場合は false

solr-core

SnowballPorterFilterFactory

単語を指定言語の語根にします。たとえば、protect、protects、および protection はすべて同じ語根を持ちます。このようなフィルターを使用すると、関連する単語に一致する検索を実行できます。

language: デンマーク語、オランダ語、英語、フィンランド語、フランス語、ドイツ語、イタリア語、ノルウェー語、ポルトガル語、ロシア語、スペイン語、スウェーデン語など。

solr-core

ISOLatin1AccentFilterFactory

フランス語などの言語に使用されるアクセント記号を削除します。

なし

solr-core

PhoneticFilterFactory

音声的に似ているトークンをトークンストリームに挿入します。

encoder: DoubleMetaphone、Metaphone、Soundex、または RefinedSoundex のいずれか。

inject: true を設定するとトークンをストリームに追加し、falseを設定すると既存のトークンを置き換えます。

maxCodeLength: 生成されるコードの最大長を設定します。Metaphone および DoubleMetaphone エンコーディングのみに対してサポートされます。

solr-core および commons-codec

CollationKeyFilterFactory

各トークンを java.text.CollationKey に変換し、CollationKeyIndexableBinaryStringTools でエンコードして索引語 (index term) として保存されるようにします。

customlanguagecountryvariantstrengthdecomposition。詳細は Lucene の CollationKeyFilter javadocs を参照してください。

solr-core および commons-io

16.6. ブリッジ

16.6.1. ブリッジ

エンティティーをマッピングするとき、Lucene はすべてのインデックスフィールドを文字列として表します。@Field アノテーションが付けられたエンティティープロパティーは、すべて文字列に変換され、インデックス化されます。ビルトインブリッジは Lucene ベースの Query API に対してプロパティーを自動的に変換します。ブリッジをカスタマイズすると変換プロセスを制御することができます。

16.6.2. ビルトインブリッジ

Lucene ベースの Query API には、Java プロパティー型とそのフルテキスト表現との間のビルドインブリッジが含まれています。

null
デフォルトでは null 要素はインデックス化されません。 Lucene は null 要素をサポートしませんが、場合によっては null の値を表すカスタムトークンを挿入すると便利なことがあります。詳細は @Field を参照してください。
java.lang.String

文字列は以下としてインデックス化されます。

  • shortShort
  • integerInteger
  • longLong
  • floatFloat
  • doubleDouble
  • BigInteger
  • BigDecimal

数字は文字列の表現に変換されます。Lucene では数字を比較できず、そのままの状態で範囲指定のクエリーに使用できないため、パディングを行う必要があります。

注記

Range クエリーの使用には欠点があるため、代わりに結果クエリーを適切な範囲にフィルターする Filter クエリーを使用することができます。

クエリーモジュールは、カスタム StringBridge の使用をサポートします。Custom Bridges を参照してください。

java.util.Date

日付はグリニッジ標準時 (GMT) で yyyyMMddHHmmssSSS の形式で保存されます。たとえば、アメリカ東部標準時 (EST) の 2006 年 11 月 7 日午後 4 時 3 分 12 秒は 200611072203012 になります。TermRangeQuery を使用する場合、日付は GMT で表示されます。

@DateBridge はインデックスへの保存に適切な精度 (resolution) を定義します (例: @DateBridge(resolution=Resolution.DAY))。日付パターンはこの定義に従って省略されます。

@Indexed
public class Meeting {
    @Field(analyze=Analyze.NO)
    @DateBridge(resolution=Resolution.MINUTE)
    private Date date;

デフォルトの Dateブリッジは ucene の DateTools を使用して String からの変換と String への変換を行います。日付を固定のタイムゾーンで保存するには、カスタムの date ブリッジを実装します。

java.net.URI、java.net.URL
URI および URL は文字列の表現に変換されます。
java.lang.Class
クラスは完全修飾クラス名に変換されます。クラスがリハイドレートされるとスレッドコンテキストクラスローダーが使用されます。

16.6.3. カスタムブリッジ

16.6.3.1. カスタムブリッジ

カスタムブリッジは、ビルトインブリッジやブリッジの文字列表現が、必要なプロパティー型に十分に対応できない場合に使用することができます。

16.6.3.2. FieldBridge

柔軟性を向上するため、ブリッジを FieldBridge として実装できます。FieldBridge インターフェースは、Lucene Document でマップできるプロパティー値を提供します。たとえば、1 つのプロパティーを 2 つのドキュメントフィールドに保存できます。

FieldBridge インターフェースの実装

public class DateSplitBridge implements FieldBridge {
    private final static TimeZone GMT = TimeZone.getTimeZone("GMT");

    public void set(String name,
                    Object value,
                    Document document,
                    LuceneOptions luceneOptions) {
        Date date = (Date) value;
        Calendar cal = GregorianCalendar.getInstance(GMT);
        cal.setTime(date);
        int year = cal.get(Calendar.YEAR);
        int month = cal.get(Calendar.MONTH) + 1;
        int day = cal.get(Calendar.DAY_OF_MONTH);

        // set year
        luceneOptions.addFieldToDocument(
            name + ".year",
            String.valueOf(year),
            document);

        // set month and pad it if needed
        luceneOptions.addFieldToDocument(
            name + ".month",
            month < 10 ? "0" : "" + String.valueOf(month),
            document);

        // set day and pad it if needed
        luceneOptions.addFieldToDocument(
            name + ".day",
            day < 10 ? "0" : "" + String.valueOf(day),
            document);
    }
}

//property
@FieldBridge(impl = DateSplitBridge.class)
private Date date;

以下の例では、フィールドは直接 Lucene Document に追加されません。代わりに、追加は LuceneOptions ヘルパーに委譲されます。このヘルパーは、StoreTermVector などの @Field で選択されたオプションを適用したり、選択された @Boost の値を適用したりします。

LuceneOptions を委譲してフィールドを Document に追加することが推奨されますが、LuceneOptions を無視して直接 Document を編集することも可能です。

注記

LuceneOptions は、Lucene API の変更がアプリケーションに影響しないようにし、コードを簡易化します。

16.6.3.3. StringBridge

org.infinispan.query.bridge.StringBridge インターフェースを使用して、想定される Object の実装で Lucene ベースの Query API を String ブリッジまたは StringBridge に提供します。すべての実装は同時に使用されるため、スレッドセーフである必要があります。

カスタム StringBridge 実装

/**
 * Padding Integer bridge.
 * All numbers will be padded with 0 to match 5 digits
 *
 * @author Emmanuel Bernard
 */
public class PaddedIntegerBridge implements StringBridge {

    private int PADDING = 5;

    public String objectToString(Object object) {
        String rawInteger = ((Integer) object).toString();
        if (rawInteger.length() > PADDING)
            throw new IllegalArgumentException("Try to pad on a number too big");
        StringBuilder paddedInteger = new StringBuilder();
        for (int padIndex = rawInteger.length() ; padIndex < PADDING ; padIndex++) {
            paddedInteger.append('0');
        }
        return paddedInteger.append(rawInteger).toString();
    }
}

@FieldBridge アノテーションを使用すると、この例のプロパティーまたはフィールドはブリッジを使用できます。

@FieldBridge(impl = PaddedIntegerBridge.class)
private Integer length;

16.6.3.4. 双方向ブリッジ

TwoWayStringBridgeStringBridge の拡張バージョンで、ブリッジ実装が ID プロパティーで使用される場合に使用できます。Lucene ベースの Query API は識別子の文字列表現を読み取り、オブジェクトの生成に使用します。 @FieldBridge アノテーションは同様に使用されます。

ID プロパティーの TwoWayStringBridge の実装

public class PaddedIntegerBridge implements TwoWayStringBridge, ParameterizedBridge {

    public static String PADDING_PROPERTY = "padding";
    private int padding = 5; //default

    public void setParameterValues(Map parameters) {
        Object padding = parameters.get(PADDING_PROPERTY);
        if (padding != null) this.padding = (Integer) padding;
    }

    public String objectToString(Object object) {
        String rawInteger = ((Integer) object).toString();
        if (rawInteger.length() > padding)
            throw new IllegalArgumentException("Try to pad on a number too big");
        StringBuilder paddedInteger = new StringBuilder();
        for (int padIndex = rawInteger.length(); padIndex < padding; padIndex++) {
            paddedInteger.append('0');
        }
        return paddedInteger.append(rawInteger).toString();
    }

    public Object stringToObject(String stringValue) {
        return new Integer(stringValue);
    }
}


@FieldBridge(impl = PaddedIntegerBridge.class,
             params = @Parameter(name = "padding", value = "10"))
private Integer id;

重要

object = stringToObject(objectToString(object))) のように、双方向処理はべき等である必要があります。

16.6.3.5. パラメーター化されたブリッジ

ParameterizedBridge インターフェースはパラメーターをブリッジ実装に渡し、柔軟性を向上します。ParameterizedBridgeStringBridgeTwoWayStringBridge、および FieldBridge 実装による実行が可能です。すべての実装がスレッドセーフである必要があります。

以下の例は、ParameterizedBridge インターフェースを実装し、パラメーターは @FieldBridge アノテーションによって渡されます。

ParameterizedBridge インターフェースの設定

public class PaddedIntegerBridge implements StringBridge, ParameterizedBridge {

    public static String PADDING_PROPERTY = "padding";
    private int padding = 5; //default

    public void setParameterValues(Map <String,String> parameters) {
        String padding = parameters.get(PADDING_PROPERTY);
        if (padding != null) this.padding = Integer.parseInt(padding);
    }

    public String objectToString(Object object) {
        String rawInteger = ((Integer) object).toString();
        if (rawInteger.length() > padding)
            throw new IllegalArgumentException("Try to pad on a number too big");
        StringBuilder paddedInteger = new StringBuilder();
        for (int padIndex = rawInteger.length() ; padIndex < padding ; padIndex++) {
            paddedInteger.append('0');
        }
        return paddedInteger.append(rawInteger).toString();
    }
}

//property
@FieldBridge(impl = PaddedIntegerBridge.class,
             params = @Parameter(name = "padding", value = "10")
            )
private Integer length;

16.6.3.6. 型対応ブリッジ

AppliedOnTypeAwareBridge を実装するすべてのブリッジは、適用またはインジェクトされるブリッジの型を取得します。

  • フィールド/ゲッターレベルのブリッジに対するプロパティーの戻り値の型。
  • クラスレベルのブリッジに対するクラス型。

インジェクトされた型に特有のスレッドセーフ要件はありません。

16.6.3.7. ClassBridge

@ClassBridge アノテーションを使用すると、1 つのエンティティーの 1 つ以上のプロパティーを Lucene インデックスに固有の方法で組み合わせたりインデックス化することができます。@ClassBridge はクラスレベルで定義でき、termVector 属性をサポートします。

以下の例では、カスタムの FieldBridge 実装はエンティティーインスタンスを値パラメーターとして受け取ります。特定の CatFieldsClassBridge が department インスタンスに適用されます。FieldBridge はブランチとネットワークの両方を連結し、その連結をインデックス化します。

ClassBridge の実装

@Indexed
@ClassBridge(name = "branchnetwork",
             store = Store.YES,
             impl = CatFieldsClassBridge.class,
             params = @Parameter(name = "sepChar", value = ""))
public class Department {
    private int id;
    private String network;
    private String branchHead;
    private String branch;
    private Integer maxEmployees;
}

public class CatFieldsClassBridge implements FieldBridge, ParameterizedBridge {
    private String sepChar;

    public void setParameterValues(Map parameters) {
        this.sepChar = (String) parameters.get("sepChar");
    }

    public void set(String name,
                    Object value,
                    Document document,
                    LuceneOptions luceneOptions) {

        Department dep = (Department) value;
        String fieldValue1 = dep.getBranch();
        if (fieldValue1 == null) {
            fieldValue1 = "";
        }
        String fieldValue2 = dep.getNetwork();
        if (fieldValue2 == null) {
            fieldValue2 = "";
        }
        String fieldValue = fieldValue1 + sepChar + fieldValue2;
        Field field = new Field(name, fieldValue, luceneOptions.getStore(),
            luceneOptions.getIndex(), luceneOptions.getTermVector());
        field.setBoost(luceneOptions.getBoost());
        document.add(field);
   }
}

第17章 クエリー

17.1. クエリー

Infinispan Query は Lucene クエリーを実行し、ドメインオブジェクトを Red Hat JBoss Data Grid キャッシュから取得できます。

クエリーの準備および実行

  1. 以下のように、インデックス化が有効になっているキャッシュの SearchManager を取得します。

    SearchManager manager = Search.getSearchManager(cache);
  2. 以下のように、QueryBuilder を作成して Myth.class のクエリーを構築します。

    final org.hibernate.search.query.dsl.QueryBuilder queryBuilder =
        manager.buildQueryBuilderForClass(Myth.class).get();
  3. 以下のように、Myth.class クラスの属性をクエリーする Apache Lucene クエリーを作成します。

    org.apache.lucene.search.Query query = queryBuilder.keyword()
        .onField("history").boostedTo(3)
        .matching("storm")
        .createQuery();
    
    // wrap Lucene query in a org.infinispan.query.CacheQuery
    CacheQuery cacheQuery = manager.getQuery(query);
    
    // Get query result
    List<Object> result = cacheQuery.list();

17.2. クエリーの構築

17.2.1. クエリーの構築

クエリーモジュールは Lucene クエリー上で構築されるため、ユーザーはすべての Lucene クエリータイプを使用できます。クエリーが構築されると、Infinispan Query は org.infinispan.query.CacheQuery をクエリー操作 API として使用して、さらにクエリー処理を続行します。

17.2.2. Lucene ベースのクエリー API を使用した Lucene クエリーの構築

Lucene API では、クエリーパーサー (簡単なクエリー) または Lucene プログラム API (複雑なクエリー) を使用します。詳細は、Lucene のオンラインドキュメント Lucene in Action または Hibernate Search in Action を参照してください。

17.2.3. Lucene クエリーの構築

17.2.3.1. Lucene クエリーの構築

Lucene プログラム API を使用すると、フルテキストクエリーを書くことができます。しかし、Lucene プログラム API を使用する場合はパラメーターを同等の文字列に変換し、さらに正しいアナライザーを適切なフィールドに適用する必要があります。たとえば、N-gram アナライザーは複数の N-gram を指定の言葉のトークンとして使用し、そのように検索する必要があります。この作業には QueryBuilder の使用が推奨されます。

Lucene ベースのクエリー API は流動的です。この API には以下の特徴があります。

  • メソッド名は英語になります。そのため、API 操作は一連の英語のフレーズや指示として読み取りおよび理解されます。
  • 入力した接頭辞の補完を可能にし、ユーザーが適切なオプションを選択できるようにする IDE 自動補完を使用します。
  • チェイニングメソッドパターンを頻繁に使用します。
  • API 操作の使用および読み取りは簡単です。

API を使用するには、最初に指定のインデックスタイプにアタッチされるクエリービルダーを作成します。この QueryBuilder は、使用するアナライザーと適用するフィールドブリッジを認識します。複数の QueryBuilder を作成できます (クエリーのルートに関係する書くタイプごとに 1 つ)。QueryBuilderSearchManager から派生します。

Search.getSearchManager(cache).buildQueryBuilderForClass(Myth.class).get();

指定のフィールドに使用されるアナライザーをオーバーライドすることもできます。

SearchManager searchManager = Search.getSearchManager(cache);
    QueryBuilder mythQB = searchManager.buildQueryBuilderForClass(Myth.class)
        .overridesForField("history","stem_analyzer_definition")
        .get();

Lucene クエリーの構築にクエリービルダーが使用されるようになります。

17.2.3.2. キーワードクエリー

以下の例は特定の単語を検索する方法を示しています。

キーワード検索

Query luceneQuery = mythQB.keyword().onField("history").matching("storm").createQuery();

表17.1 キーワードクエリーパラメーター

パラメーター説明

keyword()

このパラメーターを使用して特定の単語を見つけます。

onField()

このパラメーターを使用して単語を検索する Lucene フィールドを指定します。

matching()

このパラメーターを使用して検索する文字列の一致を指定します。

createQuery()

Lucene クエリーオブジェクトを作成します。

  • 値「storm」は「history」FieldBridge から渡されます。これは、数字や日付が関係する場合に便利です。
  • その後、フィールドブリッジの値はフィールド「history」をインデックス化するために使用されるアナライザーへ渡されます。これにより、クエリーがインデックス化と同じ用語変換を使用するようにします (小文字、N-gram、ステミングなど)。分析プロセスが指定の単語に対して複数の用語を生成する場合、ブール値クエリーは SHOULD ロジック (おおよそ OR ロジックと同様) とともに使用されます。

文字列型でないプロパティーを検索します。

@Indexed
public class Myth {
    @Field(analyze = Analyze.NO)
    @DateBridge(resolution = Resolution.YEAR)
    public Date getCreationDate() { return creationDate; }
    public void setCreationDate(Date creationDate) { this.creationDate = creationDate; }
    private Date creationDate;
}

Date birthdate = ...;
Query luceneQuery = mythQb.keyword()
    .onField("creationDate")
    .matching(birthdate)
    .createQuery();
注記

プレーンな Lucene では、Date オブジェクトは文字列の表現に変換する必要がありました (この例では年)。

この変換は、FieldBridgeobjectToString メソッドがあれば (組み込みの FieldBridge 実装にはすべてこのメソッドがあります) どのオブジェクトに対しても実行できます。

次の例は、N-gram アナライザーを使用するフィールドを検索します。N-gram アナライザーは単語の N-gram の連続をインデックス化します。これは、ユーザーによる誤字を防ぐのに役立ちます。たとえば、単語 hibernate の 3-gram は hib、ibe、ber、rna、nat、ate になります。

N-gram アナライザーを使用した検索

@AnalyzerDef(name = "ngram",
    tokenizer = @TokenizerDef(factory = StandardTokenizerFactory.class),
    filters = {
        @TokenFilterDef(factory = StandardFilterFactory.class),
        @TokenFilterDef(factory = LowerCaseFilterFactory.class),
        @TokenFilterDef(factory = StopFilterFactory.class),
        @TokenFilterDef(factory = NGramFilterFactory.class,
            params = {
                @Parameter(name = "minGramSize", value = "3"),
                @Parameter(name = "maxGramSize", value = "3")})
    })
public class Myth {
    @Field(analyzer = @Analyzer(definition = "ngram"))
    public String getName() { return name; }
    public String setName(String name) { this.name = name; }
    private String name;
}

Date birthdate = ...;
Query luceneQuery = mythQb.keyword()
    .onField("name")
    .matching("Sisiphus")
    .createQuery();

一致する単語「Sisiphus」は小文字に変換され、3-gram (sis、isi、sip、phu、hus) に分割されます。各 N-gram はクエリーの一部になります。その後、ユーザーは Sysiphus (i ではなく y) myth (シーシュポスの神話) を検索できます。ユーザーに対してすべてが透過的に行われます。

注記

特定のフィールドがフィールドブリッジまたはアナライザーを使用しないようにするには、ignoreAnalyzer() または ignoreFieldBridge() 関数を呼び出すことができます。

同じフィールドで可能な単語を複数検索し、すべてを一致する句に追加します。

複数の単語の検索

//search document with storm or lightning in their history
Query luceneQuery =
    mythQB.keyword().onField("history").matching("storm lightning").createQuery();

複数のフィールドで同じ単語を検索するには、onFields メソッドを使用します。

複数のフィールドでの検索

Query luceneQuery = mythQB
    .keyword()
    .onFields("history","description","name")
    .matching("storm")
    .createQuery();

同じ用語を検索する場合でも、あるフィールドに必要な処理が他のフィールドとは異なることがあります。このような場合は andField() メソッドを使用します。

andField メソッドの使用

Query luceneQuery = mythQB.keyword()
    .onField("history")
    .andField("name")
    .boostedTo(5)
    .andField("description")
    .matching("storm")
    .createQuery();

前述の例では、フィールド名のみが 5 にブーストされます。

17.2.3.3. ファジークエリー

レーベンシュタイン距離 (Levenshtein Distance) アルゴリズムを基にしてファジークエリーを実行するには、keyword クエリーと同様に起動して fuzzy フラグを追加します。

ファジークエリー

Query luceneQuery = mythQB.keyword()
    .fuzzy()
    .withEditDistanceUpTo(1)
    .withPrefixLength(1)
    .onField("history")
    .matching("starm")
    .createQuery();

withEditDistanceUpTo は、2 つの用語の一致を考慮するための編集距離 (レーベンシュタイン距離) の最大値です。この値は 0 から 2 までの整数値で、デフォルト値は 2 になります。prefixLength は「ファジーの度合い」によって無視される接頭辞の長さになります。デフォルト値は 0 ですが、異なる用語が大量に含まれるインデックスではゼロ以外の値を指定することが推奨されます。

17.2.3.4. ワイルドカードクエリー

ワイルドカードクエリーを実行することもできます (単語の一部が不明のクエリー)。? は単一の文字を表し、* は連続する文字を表します。パフォーマンス上の理由で、クエリーの最初に ? または \* を使用しないことが推奨されます。

ワイルドカードクエリー

Query luceneQuery = mythQB.keyword()
    .wildcard()
    .onField("history")
    .matching("sto*")
    .createQuery();

注記

ワイルドカードクエリーは、アナライザーを一致する用語に適用しません。これは、\* または ? が適切に処理されないリスクが大変高くなるためです。

17.2.3.5. フレーズクエリー

これまでは、単語または単語のセットを検索しましたが、完全一致の文または近似の文を検索することも可能です。文の検索には phrase() を使用します。

フレーズクエリー

Query luceneQuery = mythQB.phrase()
    .onField("history")
    .sentence("Thou shalt not kill")
    .createQuery();

おおよその文はスロップ (slop) 係数を追加すると検索可能になります。スロップ係数は、その文で許可される別の単語の数を表します。これは、within または near 演算子と同様に動作します。

スロップ係数の追加

Query luceneQuery = mythQB.phrase()
    .withSlop(3)
    .onField("history")
    .sentence("Thou kill")
    .createQuery();

17.2.3.6. 範囲クエリー

範囲クエリーは指定の境界の間、上、または下で値を検索します。

範囲クエリー

//look for 0 <= starred < 3
Query luceneQuery = mythQB.range()
    .onField("starred")
    .from(0).to(3).excludeLimit()
    .createQuery();

//look for myths strictly BC
Date beforeChrist = ...;
Query luceneQuery = mythQB.range()
    .onField("creationDate")
    .below(beforeChrist).excludeLimit()
    .createQuery();

17.2.3.7. クエリーの組み合わせ

クエリーを集合 (組み合わせ) するとさらに複雑なクエリーを作成できます。以下の集合演算子を使用できます。

  • SHOULD: クエリーにはサブクエリーの一致要素が含まれるはずです。
  • MUST: クエリーにはサブクエリーの一致要素が含まれていなければなりません。
  • MUST NOT: クエリーにサブクエリーの一致要素が含まれてはなりません。

サブクエリーはブール値クエリー自体を含む Lucene クエリーです。例を以下に示します。

サブクエリーの組み合わせ

//look for popular modern myths that are not urban
Date twentiethCentury = ...;
Query luceneQuery = mythQB.bool()
    .must(mythQB.keyword().onField("description").matching("urban").createQuery())
    .not()
    .must(mythQB.range().onField("starred").above(4).createQuery())
    .must(mythQB.range()
        .onField("creationDate")
        .above(twentiethCentury)
        .createQuery())
    .createQuery();

//look for popular myths that are preferably urban
Query luceneQuery = mythQB
    .bool()
    .should(mythQB.keyword()
        .onField("description")
        .matching("urban")
        .createQuery())
    .must(mythQB.range().onField("starred").above(4).createQuery())
    .createQuery();

//look for all myths except religious ones
Query luceneQuery = mythQB.all()
    .except(mythQB.keyword()
        .onField("description_stem")
        .matching("religion")
        .createQuery())
    .createQuery();

17.2.3.8. クエリーオプション

クエリー型およびフィールドのクエリーオプションの概要は次のとおりです。

  • boostedTo (クエリー型およびフィールド上) は、クエリーまたはフィールドを指定の係数にブーストします。
  • withConstantScore (クエリー上) は、クエリーと一致し、ブーストと等しくなる定数スコアを持つすべての結果を返します。
  • filteredBy(Filter) (クエリー上) は Filter インスタンスを使用してクエリー結果をフィルターします。
  • ignoreAnalyzer (フィールド上) は、このフィールドの処理時にアナライザーを無視します。
  • ignoreFieldBridge (フィールド上) は、このフィールドの処理時にフィールドブリッジを無視します。

以下の例は、これらのオプションの使用方法を表しています。

クエリーオプション

Query luceneQuery = mythQB
    .bool()
    .should(mythQB.keyword().onField("description").matching("urban").createQuery())
    .should(mythQB
        .keyword()
        .onField("name")
        .boostedTo(3)
        .ignoreAnalyzer()
        .matching("urban").createQuery())
    .must(mythQB
        .range()
        .boostedTo(5)
        .withConstantScore()
        .onField("starred")
        .above(4).createQuery())
    .createQuery();

17.2.4. Infinispan Query でのクエリーの構築

17.2.4.1. 一般論

Lucene クエリーを構築したら、Infinispan CacheQuery クエリー内でラップします。クエリーは、インデックス化されたエンティティーをすべて検索し、インデックス化されたクラスのすべての型を返します。この挙動を変更するには、明示的に設定する必要があります。

Infinispan CacheQuery での Lucene クエリーのラッピング

CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(luceneQuery);

パフォーマンスを向上するには、以下のように戻り値の型を制限します。

エンティティー型での検索結果のフィルター

CacheQuery cacheQuery =
    Search.getSearchManager(cache).getQuery(luceneQuery, Customer.class);
// or
CacheQuery cacheQuery =
    Search.getSearchManager(cache).getQuery(luceneQuery, Item.class, Actor.class);

2 つ目の例の最初の部分は、一致する Customer インスタンスのみを返します。同じ例の 2 番目の部分は、一致する Actor および Item インスタンスを返します。型制限は多形です。このため、ベースクラス Person の 2 つのサブクラスである Salesman および Customer が返される場合は、Person.class を指定して結果の型に基づいてフィルターします。

17.2.4.2. ページネーション

パフォーマンスの劣化を防ぐため、クエリーごとに返されるオブジェクトの数を制限することが推奨されます。ユーザーがあるページから別のページへ移動するユースケースは大変一般的です。ページネーションを定義する方法は、プレーン HQL または Criteria クエリーでページネーションを定義する方法に似ています。

検索クエリーに対するページネーションの定義

CacheQuery cacheQuery = Search.getSearchManager(cache)
                              .getQuery(luceneQuery, Customer.class);
cacheQuery.firstResult(15); //start from the 15th element
cacheQuery.maxResults(10); //return 10 elements

注記

ページネーションに関係なく、一致する要素の合計数は cacheQuery.getResultSize() で取得できます。

17.2.4.3. ソート

Apache Lucene には、柔軟で強力な結果ソートメカニズムが含まれています。デフォルトでは関連性でソートされます。他のプロパティーでソートするようソートメカニズムを変更するには、Lucene Sort オブジェクトを使用して Lucene ソートストラテジーを適用します。

Lucene Sort の指定

org.infinispan.query.CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(luceneQuery, Book.class);
org.apache.lucene.search.Sort sort = new Sort(
    new SortField("title", SortField.STRING_FIRST));
cacheQuery.sort(sort);
List results = cacheQuery.list();

注記

ソートに使用されるフィールドはトークン化しないでください。トークン化に関する詳細は @Field を参照してください。

17.2.4.4. 射影

場合によってはプロパティーの小さなサブセットのみが必要になることがあります。以下のように、Infinispan Query を使用してプロパティーのサブセットを返します。

完全なドメインオブジェクトを返す代わりに射影を使用

SearchManager searchManager = Search.getSearchManager(cache);
CacheQuery cacheQuery = searchManager.getQuery(luceneQuery, Book.class);
cacheQuery.projection("id", "summary", "body", "mainAuthor.name");
List results = cacheQuery.list();
Object[] firstResult = (Object[]) results.get(0);
Integer id = (Integer) firstResult[0];
String summary = (String) firstResult[1];
String body = (String) firstResult[2];
String authorName = (String) firstResult[3];

クエリーモジュールは Lucene インデックスからプロパティーを抽出して、オブジェクト表現に変換してから Object[] のリストを返します。射影により、時間がかかるデータベースのラウンドトリップは回避されますが、以下の制約があります。

  • 射影されたプロパティーはインデックス (@Field(store=Store.YES)) に保存される必要があります。これにより、インデックスのサイズが大きくなります。
  • 射影されたプロパティーは org.infinispan.query.bridge.TwoWayFieldBridge または org.infinispan.query.bridge.TwoWayStringBridge を実装する FieldBridge を使用する必要があります。org.infinispan.query.bridge.TwoWayStringBridge はより簡単なバージョンです。

    注記

    Lucene ベースのクエリー API の組み込み型はすべて双方向です。

  • インデックス化されたエンティティーのシンプルなプロパティーまたは埋め込みされた関連のみを射影できます。埋め込みエンティティー全体は射影できません。
  • 射影は、@IndexedEmbedded を用いてインデックス化されたコレクションまたはマップでは動作しません。

Lucene はクエリー結果のメタデータ情報を提供します。射影定数を使用してメタデータを読み出します。

射影を使用したメタデータの読み出し

SearchManager searchManager = Search.getSearchManager(cache);
CacheQuery cacheQuery = searchManager.getQuery(luceneQuery, Book.class);
cacheQuery.projection("mainAuthor.name");
List results = cacheQuery.list();
Object[] firstResult = (Object[]) results.get(0);
float score = (Float) firstResult[0];
Book book = (Book) firstResult[1];
String authorName = (String) firstResult[2];

フィールドは、以下の射影定数と組み合わせることができます。

  • FullTextQuery.THIS は、射影されていないクエリーのように、初期化および管理されたエンティティーを返します。
  • FullTextQuery.DOCUMENT は、射影されたオブジェクトに関連する Lucene Document を返します。
  • FullTextQuery.OBJECT_CLASS は、インデックス化されたエンティティーのクラスを返します。
  • FullTextQuery.SCORE は、クエリーのドキュメントスコアを返します。スコアを使用して、指定のクエリーの結果の 1 つを他の結果と比較します。スコアは異なる 2 つのクエリーの結果を比較するためのものではありません。
  • FullTextQuery.ID は、射影されたオブジェクトの ID プロパティー値です。
  • FullTextQuery.DOCUMENT_ID は Lucene ドキュメント ID です。Lucene ドキュメント ID は開かれる 2 つの IndexReader の間で変更されます。
  • FullTextQuery.EXPLANATION は、クエリーの一致するオブジェクト/ドキュメントに対して Lucene Explanation オブジェクトを返します。これは、大量のデータの取得には適していません。FullTextQuery.EXPLANATION の実行コストは、一致する各要素に対して Lucene クエリーを実行するのに匹敵します。そのため、射影が推奨されます。

17.2.4.5. クエリー時間の制限

次のように、Infinispan Query でクエリーが要する時間を制限します。

  • 制限に達したら例外を発生します。
  • 時間制限に達したら取得された結果の数を制限します。

17.2.4.6. 時間制限での例外の発生

定義された時間を超えてクエリーが実行される場合に発生する、カスタム例外を定義できます。

CacheQuery API の使用時に制限を定義するには、以下の方法を使用します。

クエリー実行でのタイムアウトの定義

SearchManagerImplementor searchManager = (SearchManagerImplementor) Search.getSearchManager(cache);
searchManager.setTimeoutExceptionFactory(new MyTimeoutExceptionFactory());
CacheQuery cacheQuery = searchManager.getQuery(luceneQuery, Book.class);

//define the timeout in seconds
cacheQuery.timeout(2, TimeUnit.SECONDS);

try {
    cacheQuery.list();
}
catch (MyTimeoutException e) {
    //do something, too slow
}

private static class MyTimeoutExceptionFactory implements TimeoutExceptionFactory {
    @Override
    public RuntimeException createTimeoutException(String message, String queryDescription) {
        return new MyTimeoutException();
    }
}

public static class MyTimeoutException extends RuntimeException {
}

getResultSize()iterate()、および scroll() はメソッド呼び出しが終了するまでタイムアウトを考慮します。そのため、Iterable または ScrollableResults はタイムアウトを無視します。さらに、explain() はこのタイムアウト期間を考慮しません。このメソッドは、デバッグやクエリーのパフォーマンスが遅い理由をチェックするために使用されます。

重要

サンプルコードは、クエリーが指定された結果の値で停止することを保証しません。

17.3. 結果の読み出し

17.3.1. 結果の読み出し

Infinispan Query は構築後に HQL や Criteria クエリーと同様に実行できます。同じパラダイムとオブジェクトセマンティックが Lucene クエリーおよび list() などの一般的な操作すべてに適用されます。

17.3.2. パフォーマンスに関する注意点

list() を使用すると妥当な数の結果を受信し (たとえば、ページネーションを使用する場合など)、すべてに対応することができます。 list()batch-size エンティティーが適切に設定されている場合に最適に動作します。list() が使用されると、クエリーモジュールはページネーション内ですべての Lucene Hits 要素を処理します。

17.3.3. 結果サイズ

ユースケースによっては、一致するドキュメントの合計数に関する情報が必要になります。以下の例について考えてみましょう。

一致するドキュメントをすべて読み出すには大量のリソースを消費します。Lucene ベースのクエリー API は、ページネーションのパラメーターに関係なく、一致するドキュメントをすべて読み出します。一致するドキュメントをすべて読み出すには大量のリソースが必要であるため、Lucene ベースのクエリー API はページネーションのパラメーターに関係なく、一致するドキュメントの合計数を読み出しできます。一致するすべての要素は、オブジェクトのロードを発生せずに読み出されます。

クエリーの結果サイズの決定

CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(luceneQuery,
                Book.class);
//return the number of matching books without loading a single one
assert 3245 == cacheQuery.getResultSize();

CacheQuery cacheQueryLimited =
        Search.getSearchManager(cache).getQuery(luceneQuery, Book.class);
cacheQuery.maxResults(10);
List results = cacheQuery.list();
assert 10 == results.size();
//return the total number of matching books regardless of pagination
assert 3245 == cacheQuery.getResultSize();

インデックスが適切にデータベースと同期されていない場合、結果の数は近似値になります。この場合の例の 1 つとして非同期クラスターが挙げられます。

17.3.4. 結果の理解

Luke を使用すると、想定されるクエリー結果で結果が表示される (または表示されない) 理由を判断できます。また、クエリーモジュールは指定の結果 (指定のクエリーの) に対する Lucene Explanation オブジェクトも提供します。 これは上級クラスです。次のように Explanation オブジェクトにアクセスします。

cacheQuery.explain(int) メソッド

このメソッドでは、パラメーターとするドキュメント ID が必要で、Explanation オブジェクトを返します。

注記

explanation オブジェクトの構築は、Lucene クエリーの実行と同様にリソースを大量に消費します。実装で必要になる場合のみ、explanation オブジェクトを構築してください。

17.4. フィルター

17.4.1. フィルター

Apache Lucene は、カスタムのフィルター処理に従ってクエリーの結果をフィルターすることができます。これは、フィルターをキャッシュおよび再使用できるため、データの制限を追加で適用する強力な方法です。該当するユースケースには以下が含まれます。

  • セキュリティー
  • 一時データ (例: 閲覧専用の先月のデータ)
  • 入力 (population) フィルター (例: 指定のカテゴリーに限定される検索)
  • その他多くのユースケース

17.4.2. フィルターの定義および実装

Lucene ベースのクエリー API には、パラメーターが含まれる filters という名前の透過キャッシュが含まれます。この API は Hibernate Core フィルターと似ています。

クエリーに対するフルテキストフィルターの有効化

cacheQuery = Search.getSearchManager(cache).getQuery(query, Driver.class);
cacheQuery.enableFullTextFilter("bestDriver");
cacheQuery.enableFullTextFilter("security").setParameter("login", "andre");
cacheQuery.list(); //returns only best drivers where andre has credentials

この例では、クエリーで 2 つのフィルターが有効になっています。フィルターを有効または無効にしてクエリーをカスタマイズします。

@FullTextFilterDef アノテーションを使用してフィルターを宣言します。このアノテーションは、フィルターのクエリーに関係なく @Indexed エンティティーに適用されます。フィルター定義はグローバルであるため、各フィルターに一意な名前を付ける必要があります。同じ名前を持つ 2 つの @FullTextFilterDef アノテーションが定義された場合、SearchException が発生します。名前の付いた各フィルターにはそのフィルター実装を指定する必要があります。

フィルターの定義および実装

@FullTextFilterDefs({
    @FullTextFilterDef(name = "bestDriver", impl = BestDriversFilter.class),
    @FullTextFilterDef(name = "security", impl = SecurityFilterFactory.class)
})
public class Driver { ... }

public class BestDriversFilter extends org.apache.lucene.search.Filter {

    public DocIdSet getDocIdSet(IndexReader reader) throws IOException {
        OpenBitSet bitSet = new OpenBitSet(reader.maxDoc());
        TermDocs termDocs = reader.termDocs(new Term("score", "5"));
        while (termDocs.next()) {
            bitSet.set(termDocs.doc());
        }
        return bitSet;
    }
}

BestDriversFilter はドライバーへの結果セットを減らす Lucene フィルターで、スコアは 5 になります。この例では、フィルターは直接 org.apache.lucene.search.Filter を実装し、引数がないコンストラクターが含まれます。

17.4.3. @Factory フィルター

フィルターの作成に追加の手順が必要であったり、フィルターに引数がないコンストラクターがない場合は、以下のファクトリーパターンを使用します。

ファクトリーパターンを使用したフィルターの作成

@FullTextFilterDef(name = "bestDriver", impl = BestDriversFilterFactory.class)
public class Driver { ... }

public class BestDriversFilterFactory {

    @Factory
    public Filter getFilter() {
        //some additional steps to cache the filter results per IndexReader
        Filter bestDriversFilter = new BestDriversFilter();
        return new CachingWrapperFilter(bestDriversFilter);
    }
}

Lucene ベースのクエリー API は @Factory アノテーションが付いたメソッドを使用してフィルターインスタンスを構築します。ファクトリーには引数がないコンストラクターが含まれる必要があります。

名前付きフィルターは、パラメーターをフィルターに渡す必要がある場合に便利です。たとえば、セキュリティーフィルターが、適用するセキュリティーレベルを認識する場合を考えてみます。

パラメーターを定義されたフィルターに渡す

cacheQuery = Search.getSearchManager(cache).getQuery(query, Driver.class);
cacheQuery.enableFullTextFilter("security").setParameter("level", 5);

対象となる名前付きフィルター定義のフィルターまたはフィルターファクトリーのいずれかで、関連付けられたセッターが各パラメーターに含まれる必要があります。

実際のフィルター実装でのパラメーターの使用

public class SecurityFilterFactory {
    private Integer level;

    /**
     * injected parameter
     */
    public void setLevel(Integer level) {
        this.level = level;
    }

    @Key
    public FilterKey getKey() {
        StandardFilterKey key = new StandardFilterKey();
        key.addParameter(level);
        return key;
    }

    @Factory
    public Filter getFilter() {
        Query query = new TermQuery(new Term("level", level.toString()));
        return new CachingWrapperFilter(new QueryWrapperFilter(query));
    }
}

@Key アノテーションの付いたメソッドは FilterKey オブジェクトを返します。返されたオブジェクトには特別なコントラクトがあります。キーオブジェクトは equals() / hashCode() を実装して、特定の Filter タイプが同じでパラメーターのセットが同じ場合でのみ 2 つのキーが等しくなるようにします。つまり、キーが生成されるフィルターが交換可能な場合のみ 2 つのフィルターキーは等しくなります。キーオブジェクトはキャッシュメカニズムでキーとして使用されます。

17.4.4. キーオブジェクト

@Key メソッドは以下の場合のみ必要です。

  • フィルターキャッシュシステムが有効である (デフォルトで有効)
  • フィルターにパラメーターが含まれる

StandardFilterKeyequals() / hashCode() 実装をパラメーター equals および hashcode メソッドに委譲します。

定義されたフィルターはデフォルトでキャッシュされ、キャッシュはハード参照とソフト参照の組み合わせを使用して必要な場合にメモリーの破棄を許可します。ハード参照キャッシュは最後に使用されたフィルターを追跡し、使用頻度が最も低いフィルターを必要に応じて SoftReferences に変換します。ハード参照キャッシュの制限に達すると、追加のフィルターは SoftReferencesと してキャッシュされます。ハード参照キャッシュのサイズを調整するには、 default.filter.cache_strategy.size (デフォルト値は 128) を使用します。フィルターキャッシュの高度な使用については、独自の FilterCachingStrategy を実装してください。クラス名は default.filter.cache_strategy によって定義されます。

このフィルターキャッシュメカニズムを実際のフィルター結果と混同しないでください。Lucene では、CachingWrapperFilterIndexReader を使用してフィルターをラップすることが一般的です。このラッパーは、コストがかかる再計算を回避するために getDocIdSet(IndexReader reader) メソッドから返された DocIdSet をキャッシュします。リーダーは開いたときのインデックスの状態を表すため、計算される DocIdSet は同じ IndexReader インスタンスに対してのみキャッシュできることに注意してください。ドキュメントリストは開いた IndexReader 内で変更できません。ただし、別または新しい IndexReader インスタンスが Document の別のセット (別のインデックスのもの、またはインデックスが変更されたため) で動作することがあります。この場合、キャッシュされた DocIdSet は再計算する必要があります。

17.4.5. フルテキストフィルター

Lucene ベースのクエリー API は @FullTextFilterDefcache フラグを使用し、FilterCacheModeType.INSTANCE_AND_DOCIDSETRESULTS に設定します。これは、フィルターインスタンスを自動的にキャッシュし、CachingWrapperFilter の Hibernate 固有の実装にフィルターをラッピングします。Lucene バージョンのこのクラスとは異なり、 SoftReference はハード参照数 (フィルターキャッシュに関する説明を参照) とともに使用されます。ハード参照数は、default.filter.cache_docidresults.size を使用して調整できます (デフォルト値は 5)。ラッピングは @FullTextFilterDef.cache パラメーターを使用して調整されます。このパラメーターには以下の 3 つの値があります。

Value定義

FilterCacheModeType.NONE

フィルターインスタンスなしと結果なしは Hibernate Search によってキャッシュされます。フィルターの呼び出しごとに、新しいフィルターインスタンスが作成されます。この設定は、頻繁に変更するデータやメモリーの制約が大きい環境に役に立つことがあります。

FilterCacheModeType.INSTANCE_ONLY

フィルターインスタンスはキャッシュされ、同時 Filter.getDocIdSet() 呼び出しで再使用されます。DocIdSet の結果はキャッシュされません。この設定は、アプリケーション固有のイベントにより DocIdSet のキャッシュが不必要になったことが原因で、フィルターが独自のキャッシュメカニズムを使用する場合やフィルター結果が動的に変更される場合に役に立ちます。

FilterCacheModeType.INSTANCE_AND_DOCIDSETRESULTS

フィルターインスタンスの結果と DocIdSet の結果の両方がキャッシュされます。これはデフォルト値です。

フィルターは次の状況でキャッシュされる必要があります。

  • システムが対象となるエンティティーインデックスを頻繁に更新しない (つまり、IndexReader が頻繁に再利用される)
  • フィルターの DocIdSet の計算のコストが高い (クエリーを実行するのにかかる時間と比較して)

17.4.6. シャード化された環境におけるフィルターの使用

シャード化された環境にて、利用可能なシャードのサブセットでクエリーを実行するには、以下の手順にしたがいます。

  1. フィルター設定に応じて IndexManager のサブセットを選択するため、シャードストラテジーを作成します。
  2. クエリーの実行時にフィルターをアクティベートします。

以下は、customer フィルターがアクティベートされた場合に特定のシャードをクエリーするシャードストラテジーの例になります。

特定シャードのクエリー

public class CustomerShardingStrategy implements IndexShardingStrategy {

    // stored IndexManagers in a array indexed by customerID
    private IndexManager[] indexManagers;

    public void initialize(Properties properties, IndexManager[] indexManagers) {
        this.indexManagers = indexManagers;
    }

    public IndexManager[] getIndexManagersForAllShards() {
        return indexManagers;
    }

    public IndexManager getIndexManagerForAddition(
        Class<?> entity, Serializable id, String idInString, Document document) {
        Integer customerID = Integer.parseInt(document.getFieldable("customerID")
                                                      .stringValue());
        return indexManagers[customerID];
    }

    public IndexManager[] getIndexManagersForDeletion(
        Class<?> entity, Serializable id, String idInString) {
        return getIndexManagersForAllShards();
    }

    /**
     * Optimization; don't search ALL shards and union the results; in this case, we
     * can be certain that all the data for a particular customer Filter is in a single
     * shard; return that shard by customerID.
     */
    public IndexManager[] getIndexManagersForQuery(
        FullTextFilterImplementor[] filters) {
        FullTextFilter filter = getCustomerFilter(filters, "customer");
        if (filter == null) {
            return getIndexManagersForAllShards();
        }
        else {
            return new IndexManager[] { indexManagers[Integer.parseInt(
                filter.getParameter("customerID").toString())] };
        }
    }

    private FullTextFilter getCustomerFilter(FullTextFilterImplementor[] filters,
                                             String name) {
        for (FullTextFilterImplementor filter: filters) {
            if (filter.getName().equals(name)) return filter;
        }
        return null;
    }
}

この例では、customer フィルターが存在する場合、クエリーはカスタマー専用のシャードのみを使用します。customer フィルターが見つからない場合は、クエリーはすべてのシャードを返します。シャードストラテジーは提供されたパラメーターに応じて各フィルターに反応します。

クエリーの実行が必要なときに、フィルターをアクティベートします。フィルターは、クエリーの後に Lucene の結果をフィルターする通常のフィルターです (フィルターにて定義)。この代わりに、シャードストラテジーに渡され、クエリーの実行中は無視される特別なフィルターを使用できます。ShardSensitiveOnlyFilter クラスを使用してそのフィルターを宣言します。

ShardSensitiveOnlyFilter クラスの使用

@Indexed
@FullTextFilterDef(name = "customer", impl = ShardSensitiveOnlyFilter.class)
public class Customer {
   ...
}

CacheQuery cacheQuery = Search.getSearchManager(cache).getQuery(query,
    Customer.class);
cacheQuery.enableFullTextFilter("customer").setParameter("CustomerID", 5);
@SuppressWarnings("unchecked")
List results = cacheQuery.list();

ShardSensitiveOnlyFilter フィルターが使用される場合、Lucene フィルターを実装する必要はありません。これらのフィルターに反応するフィルターとシャードストラテジーを使用して、シャード化された環境でクエリーを迅速に実行します。

17.5. 継続的クエリー

17.5.1. 継続的クエリー

継続的クエリーは、アプリケーションが現在クエリーと一致するエントリーを受信できるようにし、クエリーされたデータセットへの変更が継続して通知されるようにします。これには、追加のキャッシュ操作による、受信の一致 (セットに参加した値に対する) と送信の一致 (セットから離脱した値に対する) の両方が含まれます。継続的なクエリーを使用すると、アプリケーションは安定してイベントを受信するため、変更を発見するために同じクエリーを繰り返し実行しません。そのため、リソースをより効率的に使用できます。

たとえば、以下のユースケースはすべて継続的なクエリーを利用できます。

  1. 年齢が 18 歳から 25 歳までの人を全員返します (Person エンティティーに age プロパティーがあり、ユーザーアプリケーションによって更新されることを前提とします)。
  2. $2000 を超える取引をすべて返します。
  3. 1:45.00s 未満である F1 レーサーのラップタイムをすべて返します (キャッシュに Lap エントリーが含まれ、レース中にラップタイムがリアルタイムで入力されることを前提とします)。

17.5.2. 継続的クエリーの評価

継続的クエリーは以下の場合に通知を受け取るリスナーを使用します。

  • エントリーが指定クエリーの一致を開始したとき。Join イベントによって表されます。
  • エントリーが指定クエリーの一致を停止したとき。Leave イベントによって表されます。

クライアントが継続的クエリーリスナーを登録した直後、現在クエリーと一致する結果の受信が開始されます。前述のとおり、これは Join イベントとして受信されます。さらに、通常は creation、modification、removal、または expiration イベントを生成するキャッシュ操作の結果として、他のエントリーがクエリーに一致すると、Join イベントとして後続の通知も受信され、クエリーの一致が停止されると Leave イベントとして受信されます。

リスナーが Join または Leave イベントを受信するかを判断するため、以下の論理が使用されます。

  1. 新旧両方の値でクエリーが false と評価された場合、イベントは抑制されます。
  2. 新旧両方の値でクエリーが true と評価された場合、イベントは抑制されます。
  3. 古い値でクエリーが false と評価され、新しい値でクエリーが true と評価された場合、Join イベントが送信されます。
  4. 古い値でクエリーが true と評価され、新しい値でクエリーが false と評価された場合、Leave イベントが送信されます。
  5. 古い値でクエリーが true と評価され、エントリーが削除された場合、Leave イベントが送信されます。
注記

継続的クエリーはグループ化、集計、およびソート操作を使用できません。

17.5.3. 継続的クエリーの使用

以下の手順は、ライブラリーモードとリモートクライアントサーバーモードの両方に適用されます。

継続的クエリーの追加

継続的クエリーを作成するため、他のクエリーメソッドと同様に Query オブジェクトが作成されますが、Queryorg.infinispan.query.api.continuous.ContinuousQuery と登録されるようにし、org.infinispan.query.api.continuous.ContinuousQueryListener が使用されているようにしてください。

キャッシュに関連付けられた ContinuousQuery オブジェクトを取得するには、クライアントサーバーモードで実行している場合は静的メソッド org.infinispan.client.hotrod.Search.getContinuousQuery(RemoteCache<K, V> cache) を呼び出し、ライブラリーモードで実行している場合は org.infinispan.query.Search.getContinuousQuery(Cache<K, V> cache) を呼び出します。

ContinuousQueryListener が定義されたら、ContinuousQueryaddContinuousQueryListener メソッドを使用して追加できます。

continuousQuery.addContinuousQueryListener(query, listener)

以下の例は、ライブラリーモードで継続的クエリーを実装および追加する簡単なメソッドを表しています。

継続的クエリーの定義および追加

import org.infinispan.query.api.continuous.ContinuousQuery;
import org.infinispan.query.api.continuous.ContinuousQueryListener;
import org.infinispan.query.Search;
import org.infinispan.query.dsl.QueryFactory;
import org.infinispan.query.dsl.Query;

import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;

[...]

// To begin we create a ContinuousQuery instance on the cache
ContinuousQuery<Integer, Person> continuousQuery = Search.getContinuousQuery(cache);

// Define our query. In this case we will be looking for any
// Person instances under 21 years of age.
QueryFactory queryFactory = Search.getQueryFactory(cache);
Query query = queryFactory.from(Person.class)
    .having("age").lt(21)
    .build();

final Map<Integer, Person> matches = new ConcurrentHashMap<Integer, Person>();

// Define the ContinuousQueryListener
ContinuousQueryListener<Integer, Person> listener = new ContinuousQueryListener<Integer, Person>() {
    @Override
    public void resultJoining(Integer key, Person value) {
        matches.put(key, value);
    }

    @Override
    public void resultLeaving(Integer key) {
        matches.remove(key);
    }
};

// Add the listener and generated query
continuousQuery.addContinuousQueryListener(query, listener);

[...]

// Remove the listener to stop receiving notifications
continuousQuery.removeContinuousQueryListener(listener);

Person インスタンスが 21 未満の Age が含まれるキャッシュへ追加されると matches に配置されます。これらのエントリーがキャッシュから削除されると、matches からも削除されます。

継続的クエリーの削除

クエリーの実行を停止するには、リスナーを削除します。

continuousQuery.removeContinuousQueryListener(listener);

17.5.4. 継続的クエリーでのパフォーマンスに関する注意点

継続的クエリーは、アプリケーションが常に最新の状態を保持するよう設計されているため、特に広範囲のクエリーに対して生成されたイベントの数が多くなる可能性があります。さらに、各イベントに対して新たにメモリーが割り当てられます。注意してクエリーを作成しないと、この挙動が原因でメモリーの負荷が発生し、エラーなどを引き起こす可能性があります。

この問題を防ぐため、各クエリーには必要な情報のみを指定し、各 ContinuousQueryListener が受信したすべてのイベントを迅速に処理できるようにすることが強く推奨されます。

第18章 Infinispan Query DSL

18.1. Infinispan Query DSL

Infinispan Query DSL はキャッシュをクエリーするための統一された方法を提供します。これは、ライブラリーモードでインデックス化されたクエリーとインデックスのないクエリーの両方に使用でき、リモートクエリー (Hot Rod Java クライアントを経由) にも使用できます。Infinispan Query DSL では、Lucene ネイティブクエリー API や Hibernate Search クエリー API に依存せずにクエリーを実行できます。

Infinispan Query DSL では、インデックスのないクエリーは JBoss Data Grid リモートおよび埋め込みモードでのみ利用できます。インデックスのないクエリーには設定されたインデックス ( Infinispan Query DSL ベースのクエリー を参照) は必要ありません。Hibenrate Search や Lucene ベースの API はインデックスのないクエリーを使用できません。

18.2. Infinispan Query DSL を用いたクエリーの作成

新しいクエリー API は org.infinispan.query.dsl パッケージにあります。クエリーは、Search.getQueryFactory() を使用して取得される QueryFactory インスタンスを利用して作成されます。各 QueryFactory インスタンスは 1 つのキャッシュインスタンスにバインドされ、複数の並列クエリーを作成する場合に使用できるステートレスでスレッドセーフなオブジェクトです。

Infinispan Query DSL は以下の手順にしたがってクエリーを実行します。

  1. クエリーは from(Class entityType) メソッドを呼び出して作成されます。これは、特定のキャッシュから指定のエンティティークラスのクエリーを作成する QueryBuilder オブジェクトを返します。
  2. QueryBuilder は、DSL メソッドを呼び出して指定される検索基準と設定を累積します。また、構築を完了する QueryBuilder.build() メソッドを呼び出して Query オブジェクトを構築するために使用されます。QueryBuilder オブジェクトを使用して、入れ子のクエリー以外の複数のクエリーを同時に構築することはできませんが、後で再使用することができます。
  3. Query オブジェクトの list() メソッドを呼び出してクエリーを実行し、結果を取得します。実行すると Query オブジェクトは再使用できなくなります。新しい結果を取得する必要がある場合は、QueryBuilder.build() を呼び出して新しいインスタンスを取得します。
重要

クエリーは単一のエンティティー型を対象とし、単一キャッシュの内容全体で評価されます。複数キャッシュでのクエリーの実行や、複数のエンティティー型を対象とするクエリーの作成はサポートされません。

18.3. Infinispan Query DSL ベースのクエリーの有効化

ライブラリーモードでは、Infinispan Query DSL ベースのクエリーの実行は Lucene ベースの API クエリーの実行とほぼ同じです。前提条件は次のとおりです。

  • Infinispan Query に必要なすべてのライブラリーがクラスパスにある。詳細は Administration and Configuration Guide を参照してください。
  • インデックス化が有効で、キャッシュに対して設定されている (任意)。詳細は、 Administration and Configuration Guide を参照してください。
  • アノテーションが付いた POJO キャッシュ値 (任意)。インデックス化が有効になっていない場合は POJO アノテーションは必要なく、設定されている場合は無視されます。インデックス化が有効になっていない場合、Hibernate Search のアノテーションが付いたフィールドのみではなく、JavaBeans の慣例にしたがうフィールドすべてが検索可能になります。

18.4. Infinispan Query DSL ベースのクエリーの実行

Infinispan Query DSL ベースのクエリーが有効になったら、DSL ベースのクエリーを実行するために Search から QueryFactory を取得します。

キャッシュの QueryFactory の取得

ライブラリーモードで、以下のように QueryFactory を取得します。

QueryFactory qf = org.infinispan.query.Search.getQueryFactory(cache)

DSL ベースのクエリーの構築

import org.infinispan.query.Search;
import org.infinispan.query.dsl.QueryFactory;
import org.infinispan.query.dsl.Query;

QueryFactory qf = Search.getQueryFactory(cache);
Query q = qf.from(User.class)
    .having("name").eq("John")
    .build();
List list = q.list();
assertEquals(1, list.size());
assertEquals("John", list.get(0).getName());
assertEquals("Doe", list.get(0).getSurname());

リモートクエリーをリモートクライアントサーバーモードで使用する場合、Searchorg.infinispan.client.hotrod パッケージにあります。詳細は Hot Rod Java クライアント経由のリモートクエリーの実行 の例を参照してください。

複数の条件 (サブ条件を含む) をブール値演算子と組み合わせることも可能です。

複数条件の組み合わせ

Query q = qf.from(User.class)
    .having("name").eq("John")
    .and().having("surname").eq("Doe")
    .and().not(qf.having("address.street").like("%Tanzania%")
    .or().having("address.postCode").in("TZ13", "TZ22"))
    .build();

このクエリー API は、ユーザーに Lucene クエリーオブジェクト構築の詳細内容を公開しないことで、クエリーの作成方法を簡素化します。また、リモート Hot Rod クライアントが利用できる利点もあります。

以下の例は、Book エンティティーのクエリーの書き方を示しています。

Book エンティティーのクエリー

import org.infinispan.query.Search;
import org.infinispan.query.dsl.*;

// get the DSL query factory, to be used for constructing the Query object:
QueryFactory qf = Search.getQueryFactory(cache);
// create a query for all the books that have a title which contains the word "engine":
Query query = qf.from(Book.class)
    .having("title").like("%engine%")
    .build();
// get the results
List<Book> list = query.list();

18.5. 射影クエリー

多くの場合で、完全なドメインオブジェクトを返す必要はなく、アプリケーションには属性の小さなサブセットのみが必要になります。射影クエリーでは、属性 (または属性のパス) の特定のサブセットを返すことができます。射影クエリーが使用されると、Query.list() はドメインエンティティー全体 (List<Object>) を返さずに、アレイの各エントリーが射影された属性に対応する List<Object[]> を返します。

射影クエリーを定義するには、以下の例のようにクエリーの構築時に select(…​) メソッドを使用します。

書名と発行年の取得

// Match all books that have the word "engine" in their title or description
// and return only their title and publication year.
Query query = queryFactory.from(Book.class)
    .select(Expression.property("title"), Expression.property("publicationYear"))
    .having("title").like("%engine%")
    .or().having("description").like("%engine%")
    .build();

// results.get(0)[0] contains the first matching entry's title
// results.get(0)[1] contains the first matching entry's publication year
List<Object[]> results = query.list();

18.6. グループ化および集約操作

Infinispan Query DSL には、グループ化フィールドのセットを基にしてクエリー結果をグループ化する機能や、値のセットに集約関数を適用して各グループからの結果の集約を構築する機能があります。グループ化と集約は、射影クエリーとのみ使用できます。

グループ化フィールドのセットは、groupBy(field) メソッドを複数回呼び出して指定されます。グループ化フィールドの順番は関係ありません。

射影で選択されたすべての非グループ化フィールドは、以下に説明するグループ化関数の 1 つを使用して集約する必要があります。

著者による本のグループ化とその冊数

Query query = queryFactory.from(Book.class)
    .select(Expression.property("author"), Expression.count("title"))
    .having("title").like("%engine%")
    .groupBy("author")
    .build();

// results.get(0)[0] will contain the first matching entry's author
// results.get(0)[1] will contain the first matching entry's title
List<Object[]> results = query.list();

集約操作

以下の集約操作を指定のフィールドで実行できます。

  • avg() - Number のセットの平均を算出し、Double として表します。null 以外の値がない場合、結果は null になります。
  • count() - null でない行の数を Long として返します。null 以外の値がない場合、結果は 0 になります。
  • max() - 指定のフィールドで見つかった最も大きな値と、適用されたフィールドと同じ戻り値の型を返します。null 以外の値がない場合は、結果は null になります。

    注記

    指定のフィールドの値は、Comparable 型である必要があります。そうでないと IllegalStateException が発生します。

  • min() - 指定のフィールドで見つかった最も小さな値と、適用されたフィールドと同じ戻り値の型を返します。null 以外の値がない場合は、結果は null になります。

    注記

    指定のフィールドの値は、Comparable 型である必要があります。そうでないと IllegalStateException が発生します。

  • sum() - Number のセットの合計を算出し、返します。戻り値の型は指定のフィールド型によります。null で以外の値がない場合、結果は null になります。

    以下の表は、指定のフィールドを基にした戻り値の型を表しています。

    表18.1 戻り値の型の合計

    フィールド型戻り値の型

    Integral (BigInteger 以外)

    Long

    Floating Point

    Double

    BigInteger

    BigInteger

    BigDecimal

    BigDecimal

射影クエリーの特別なケース

射影クエリーでは、以下のケースは特別なユースケースとなります。

  • 選択されたフィールドがすべて集約され、グループ化に何も使用されないことが適切である射影クエリー。この場合、集約はグループごとに算出されず、グローバルに算出されます。
  • フィールドのグループ化を集約で使用できる。これは、集約が単一のデータポイント上で算出され、値が現在のグループに属する退化したケースになります。
  • グループ化フィールドのみを選択し、集約フィールドは選択しないことが適切であるクエリー。

グループ化および集約クエリーの評価

通常のクエリーのように、集約クエリーにフィルター条件を含めることができます。これは、任意でグループ化操作の前後に実行できます。

groupBy メソッドの呼び出し前に指定されたすべてのフィルター条件は、グループ化操作の実行前に直接キャッシュエントリーに適用されます。これらのフィルター条件は、クエリーされたエンティティー型のプロパティーを参照することがあり、後でグループ化に使用されるデータセットを制限するためのものです。

groupBy メソッドの呼び出し後に指定されたすべてのフィルター条件は、グループ化操作によって生じる射影に適用されます。これらのフィルター条件は、 groupBy によって指定されたフィールドまたは集約フィールドを参照できます。select 句に指定されていない集約フィールドの参照は許可されますが、非集約フィールドや非グループ化フィールドの参照は禁止されます。このフェーズをフィルターすると、プロパティーを基にしてグループの数が削減されます。

順序付けも通常のクエリーと同様に指定できます。順序付け操作はグループ化操作の後に実行され、前述のとおりグループ化後のフィルターによって許可されるフィールドを参照できます。

18.7. 名前付きパラメーターの使用

各リクエストに新しいクエリーを作成する代わりに、各実行で置き換えられるパラメーターを含むことが可能です。これにより、クエリーを 1 度に定義でき、必要時にクエリーの変数を調整できます。

having(…​) の比較演算子の右側に Expression.param(…​) 演算子を使用すると、クエリーの作成時パラメーターが定義されます。

名前付きパラメーターの定義

import org.infinispan.query.Search;
import org.infinispan.query.dsl.*;
[...]

QueryFactory queryFactory = Search.getQueryFactory(cache);
// Defining a query to search for various authors
Query query = queryFactory.from(Book.class)
    .select("title")
    .having("author").eq(Expression.param("authorName"))
    .build()
[...]

名前付きパラメーターの値設定

デフォルトでは、宣言されたパラメーターはすべて null となり、クエリーの実行前に定義されたすべてのパラメーターを null でない値に更新する必要があります。パラメーターの宣言後、クエリーで新しい値を指定して setParameter(parameterName, value) または setParameters(parameterMap) を呼び出すと値を更新することができます。また、クエリーを再構築する必要はありません。新しいパラメーターが定義された後に再度実行することができます。

パラメーターを個別に更新

[...]
query.setParameter("authorName","Smith");

// Rerun the query and update the results
resultList = query.list();
[...]

パラメーターのマップとして更新

[...]
parameterMap.put("authorName","Smith");

query.setParameters(parameterMap);

// Rerun the query and update the results
resultList = query.list();
[...]

第19章 Ickle クエリー言語を使用したクエリーの構築

19.1. Ickle クエリー言語を使用したクエリーの構築

フルテキスト拡張を持つ JP-QL の軽量小型のサブセットである Ickle を使用すると、ライブラリーモードとリモートクライアントサーバーモードの両方でリレーショナルおよびフルテキストクエリーを作成することができます。Ickleは文字別ベースのクエリー言語で、以下の特徴があります。

  • Java クラスをクエリーし、Protocol Buffers をサポートします。
  • クエリーは単一のエンティティー型を対象にすることができます。
  • クエリーはコレクションを含む、埋め込みオブジェクトのプロパティーでフィルターできます。
  • 射影、集約、ソート、名前付きパラメーターをサポートします。
  • インデックス化された実行とインデックス化されていない実行をサポートします。
  • 複雑なブール式をサポートします。
  • フルテキストクエリーをサポートします。
  • user.age > sqrt(user.shoeSize+3) など、式の中での計算はサポートしません。
  • 結合をサポートしません。
  • サブクエリーをサポートしません。
  • 多くの JBoss Data Grid API でサポートされます。継続的クエリーやリスナーのイベントフィルターなど、QueryBuilder によって作成されたクエリーは許可されます。

API を使用するには、最初に QueryFactory をキャッシュで取得し、.create() メソッドを呼び出してクエリーで使用する文字列を渡します。以下に例を示します。

QueryFactory qf = Search.getQueryFactory(remoteCache);
Query q = qf.create("from sample_bank_account.Transaction where amount > 20");

Ickle を使用する場合、フルテキスト演算子と使用されるすべてのフィールドはインデックス化され、分析される必要があります。

注記

Ickle は JBoss Data Grid 7.1 では技術プレビューの機能となります。

19.2. Lucene クエリーパーサー構文との違い

Ickle は JP-QL のサブセットですが、クエリー構文に以下の違いがあります。

  • 空白は重要ではありません。
  • フィールド名のワイルドカードをサポートしません。
  • デフォルトのフィールドがないため、フィールド名またはパスを常に指定する必要があります。
  • フルテキストおよび JPA 述語では、ANDOR の代わりに &&|| が許可されます。
  • NOT の代わりに ! を使用できます。
  • 見つからないブール演算子は OR として解釈されます。
  • 文字列の単語を一重引用符または二重引用符のいずれかで囲む必要があります。
  • ファジーとブーストは任意の順番では許可されません。常にファジーが最初になります。
  • <> の代わりに != が許可されます。
  • ブーストは >>=<、および 演算子には適用できません。範囲を使用すると同じ結果を得られます

19.3. ファジークエリー

ファジークエリーを実行するには、単語の後に ~ と、単語からの距離を表す整数を追加します。例を以下に示します。

Query fuzzyQuery = qf.create("from sample_bank_account.Transaction where description : 'cofee'~2");

19.4. 範囲クエリー

範囲クエリーを実行するには、以下の例のように境界を角括弧で囲んで定義します。

Query rangeQuery = qf.create("from sample_bank_account.Transaction where amount : [20 to 50]");

19.5. フレーズクエリー

単語の組み合わせを検索するには、以下の例のように引用符で囲みます

Query q = qf.create("from sample_bank_account.Transaction where description : 'bus fare'");

19.6. 近接クエリー

近接クエリーを実行し、特定の距離内にある 2 つの単語を見つけるには、それらの言葉の後に ~ とその距離を追加します。たとえば以下の例では、間に 3 つ以下の言葉が存在する canceling および fee を見つけます。

Query proximityQuery = qf.create("from sample_bank_account.Transaction where description : 'canceling fee'~3 ");

19.7. ワイルドカードクエリー

単一文字および複数文字のワイルドカード検索を実行できます。

  • 単一文字のワイルドカード検索には ? 文字を使用できます。
  • 複数文字のワイルドカード検索には * 文字を使用できます。

text または test を検索するには、以下のように単一文字のワイルドカード検索を使用できます。

Query wildcardQuery = qf.create("from sample_bank_account.Transaction where description : 'te?t'");

testtests、または tester を検索するには、以下のように複数文字のワイルドカード検索を使用できます。

Query wildcardQuery = qf.create("from sample_bank_account.Transaction where description : 'test*'");

19.8. 正規表現クエリー

正規表現クエリーを実行するには、/ の間にパターンを指定します。Ickle は Lucene の正規表現構文を使用するため、以下を使用して moat または boat を検索できます。

Query regExpQuery = qf.create("from sample_library.Book  where title : /[mb]oat/");

19.9. ブーストクエリー

単語の後に ^ を追加し、クエリーでの関連度を高めると、単語をブーストすることができます。ブースト係数が高いほど単語の関連度も高くなります。たとえば、beerwine が含まれる書名を検索し、beer の係数が 3 大きい場合、以下を使用できます。

Query boostedQuery = qf.create("from sample_library.Book where title : beer^3 OR wine");

第20章 リモートクエリー

20.1. リモートクエリー

Red Hat JBoss Data Gird の Hot Rod プロトコルは、 Infinispan Query Domain-specific Language (DSL)または Ickle (JP-QL のサブセット) のいずれかを使用して、リモートの言語中立のクエリーを実現します。どちらを使用した場合でも、リモートの言語中立のクエリーを実行でき、Hot Rod クライアントで現在使用可能なすべての言語に実装できます。

Infinispan Query Domain-specific Language (DSL)

JBoss Data Grid は、内部の DSL を基に独自のクエリー言語を使用します。Infinispan DSL は簡単にクエリーを作成できる方法を提供し、基盤のクエリーメカニズムには依存しません。Infinispan Aquery DSL の詳細情報は Infinispan Query DSL を参照してください。

Ickle

Ickle は、フルテキストおよびリレーショナル検索を実行できる文字別ベースのクエリー言語です。Ickleの詳細は、Building a Query using Ickle, the JP-QL API を参照してください。

Protobuf エンコーディング

Google の Protocol Buffers は、データの保存およびクエリーのエンコーディング形式として使用されます。Infinispan Query DSL は、Protobuf マーシャラーを使用するよう設定された Hot Rod クライアント経由でリモートで使用できます。Protocol Buffers は、キャッシュエントリーの保存とマーシャリングの共通形式を採用するために使用されます。保存されたエンティティーのインデックス化およびクエリーが必要なリモートクライアントは、Protobuf エンコーディング形式を使用する必要があります。また、インデックス化が必要でない場合はインデックス化を有効にせずにプラットフォームの独立性を確保して Protobuf エンティティーを保存することも可能です。

20.2. クエリーの比較

ライブラリーモードでは、Lucene クエリーベースのクエリーと DSL クエリーの両方を利用できます。リモートクライアントサーバーモードでは、DSL を使用したリモートクエリーのみを使用できます。以下の表は、Lucene クエリーベースのクエリー、Infinispan Query DSL、およびリモートクエリーを比較しています。

表20.1 埋め込みクエリーおよびリモートクエリー

機能ライブラリーモード/Lucene クエリーライブラリーモード/DSL クエリーリモートクライアントサーバーモード/DSL クエリーライブラリーモード/Ickle クエリーリモートクライアントサーバーモード/Ickle クエリー

インデックス化

必須

任意、しかし強く推奨

任意、しかし強く推奨

任意、しかし強く推奨

任意、しかし強く推奨

インデックスの内容

選択されたフィールド

選択されたフィールド

選択されたフィールド

選択されたフィールド

選択されたフィールド

データストレージ形式

Java オブジェクト

Java オブジェクト

Protocol Buffers

Java オブジェクト

Protocol Buffers

キーワードクエリー

不可

不可

範囲クエリー

ファジークエリー

不可

不可

ワイルドカード

like クエリーに限定 (JPA ルールに従うワイルドカードパターンと一致)

like クエリーに限定 (JPA ルールに従うワイルドカードパターンと一致)

フレーズクエリー

不可

不可

クエリーの組み合わせ

AND、OR、NOT、SHOULD

AND、OR、NOT

AND、OR、NOT

AND、OR、NOT

AND、OR、NOT

結果のソート

結果のフィルター

可 (クエリー内および先頭に追加された演算子)

クエリー内

クエリー内

クエリー内

クエリー内

結果のページネーション

継続的クエリー

不可

不可

不可

クエリーの集約操作

不可

20.3. Hot Rod Java クライアント経由のリモートクエリーの実行

RemoteCacheManager が Protobuf マーシャラーと設定された後、Hot Rod 上のリモートクエリーを有効にできます。

以下の手順では、キャッシュでのリモートクエリーを有効にする方法を説明します。

前提条件

Protobuf マーシャラーを使用するよう、RemoteCacheManager を設定する必要があります。

Hot Rod 経由のリモートクエリーの有効化

  1. infinispan-remote.jar の追加

    infinispan-remote.jar は uberjar であるため、この機能に必要な他の依存関係はありません。

  2. キャッシュ設定でのインデックス化の有効化

    リモートクエリーでは、インデックス化は必須ではありませんが、大量のデータが含まれるキャッシュでの検索が大幅に高速化されるため、強く推奨されます。インデックス化はいつでも設定できます。インデックス化の有効化や設定は、Library モードと同じです。

    Infinispan サブシステム要素内にある cache-container 要素内に以下の設定を追加します。

    <!-- A basic example of an indexed local cache
        that uses the RAM Lucene directory provider -->
    <local-cache name="an-indexed-cache">
        <!-- Enable indexing using the RAM Lucene directory provider -->
        <indexing index="ALL">
            <property name="default.directory_provider">ram</property>
        </indexing>
    </local-cache>
  3. Protobuf スキーマ定義ファイルの登録

    Protobuf スキーマ定義ファイルを登録するには、これらのファイルを ___protobuf_metadata システムキャッシュに追加します。キャッシュキーはファイル名を意味する文字列で、値は文字列としての .proto ファイルです。この代わりに、サーバーの ProtobufMetadataManager MBean の registerProtofile メソッドを呼び出して Protobuf スキーマを登録することもできます。キャッシュコンテナーごとにこの MBean の 1 つのインスタンスがあり、___protobuf_metadata によってサポートされるため、この 2 つの方法は同等です。

    ___protobuf_metadata システムキャッシュ経由で Protobuf スキーマを提供する例は、 Protocol Buffers スキーマファイルの登録 を参照してください。

    注記

    ___protobuf_metadata キャッシュへの書き込みには、書き込みを実行するユーザーに ___schema_manager ロールを追加する必要があります。

    以下の例は、ProtobufMetadataManager MBean の registerProtofile メソッドを呼び出す方法を表しています。

    JMX での Protobuf スキーマ定義ファイルの登録

    import javax.management.MBeanServerConnection;
    import javax.management.ObjectName;
    import javax.management.remote.JMXConnector;
    import javax.management.remote.JMXServiceURL;
    
    ...
    
    String serverHost = ...         // The address of your JDG server
    int serverJmxPort = ...         // The JMX port of your server
    String cacheContainerName = ... // The name of your cache container
    String schemaFileName = ...     // The name of the schema file
    String schemaFileContents = ... // The Protobuf schema file contents
    
    JMXConnector jmxConnector = JMXConnectorFactory.connect(new JMXServiceURL(
        "service:jmx:remoting-jmx://" + serverHost + ":" + serverJmxPort));
    MBeanServerConnection jmxConnection = jmxConnector.getMBeanServerConnection();
    
    ObjectName protobufMetadataManagerObjName =
        new ObjectName("jboss.infinispan:type=RemoteQuery,name=" +
        ObjectName.quote(cacheContainerName) +
        ",component=ProtobufMetadataManager");
    
    jmxConnection.invoke(protobufMetadataManagerObjName,
                         "registerProtofile",
                         new Object[]{schemaFileName, schemaFileContents},
                         new String[]{String.class.getName(), String.class.getName()});
    jmxConnector.close();

結果

キャッシュに置かれたすべてのデータは、インデックス化が使用されているかどうかに関わらず、即座に検索可能になります。埋め込みクエリーのように、エントリーにアノテーションを付ける必要はありません。エンティティークラスは Java クラスのみに意味があり、サーバー側には存在しません。

リモートのキューが有効になったら、以下を使用して QueryFactory を取得できます。

QueryFactory の取得

import org.infinispan.client.hotrod.Search;
import org.infinispan.query.dsl.QueryFactory;
import org.infinispan.query.dsl.Query;
import org.infinispan.query.dsl.SortOrder;
...
remoteCache.put(2, new User("John", 33));
remoteCache.put(3, new User("Alfred", 40));
remoteCache.put(4, new User("Jack", 56));
remoteCache.put(4, new User("Jerry", 20));

QueryFactory qf = Search.getQueryFactory(remoteCache);
Query query = qf.from(User.class)
    .orderBy("age", SortOrder.ASC)
    .having("name").like("J%")
    .and().having("age").gte(33)
    .build();

List<User> list = query.list();
assertEquals(2, list.size());
assertEquals("John", list.get(0).getName());
assertEquals(33, list.get(0).getAge());
assertEquals("Jack", list.get(1).getName());
assertEquals(56, list.get(1).getAge());

これで、ライブラリーモードと同様にクエリーを Hot Rod 上で実行できるようになります。

20.4. Hot Rod C++ クライアントでのリモートクエリー

Hot Rod C++ クライアントでリモートクエリーを使用する手順は、Hot Rod C++ クライアントを用いたリモートクエリーの実行を参照してください。

20.5. Hot Rod C# クライアントでのリモートクエリー

Hot Rod C# クライアントでリモートクエリーを使用する手順は、Hot Rod C# クライアントを用いたリモートクエリーの実行を参照してください。

20.6. Protobuf エンコーディング

20.6.1. Protobuf エンコーディング

Infinispan Query DSL は Hot Rod 経由で使用できます。これには、Protocol Buffers を使用してキャッシュエントリーの保存およびマーシャリングに共通の形式を採用します。

詳細は、https://developers.google.com/protocol-buffers/docs/overview を参照してください。

20.6.2. Protobuf エンコードされたエンティティーの格納

Protobuf ではデータを構造化する必要があります。これには、.proto ファイルで Protocol Buffer の型を宣言します。

例を以下に示します。

.library.proto

package book_sample;
message Book {
    required string title = 1;
    required string description = 2;
    required int32 publicationYear = 3; // no native Date type available in Protobuf

    repeated Author authors = 4;
}
message Author {
    required string name = 1;
    required string surname = 2;
}

この例では以下が実行されます。

  1. Book という名前のエンティティーが book_sample という名前のパッケージに配置されます。

    package book_sample;
    message Book {
  2. エンティティーは、プリミティブ型の複数のフィールドと authors という名前の繰り返し可能なフィールドを宣言します。

        required string title = 1;
        required string description = 2;
        required int32 publicationYear = 3; // no native Date type available in Protobuf
    
        repeated Author authors = 4;
    }
  3. Author メッセージインスタンスは Book メッセージインスタンスに埋め込みされます。

    message Author {
        required string name = 1;
        required string surname = 2;
    }

20.6.3. Protobuf メッセージ

Protobuf メッセージに関する重要事項は次のとおりです。

  • メッセージを入れ子にすることは可能ですが、結果として構造は常にツリーになり、グラフにはなりません。
  • 型の継承はありません。
  • コレクションはサポートされませんが、繰り返されるフィールドを使用してアレイを簡単にエミュレートできます。

20.6.4. Hot Rod での Protobuf の使用

Protobuf を JBoss Data Grid の Hot Rod と使用するには、以下の 2 つのステップを使用します。

  1. 専用のマーシャラー (ここでは ProtoStreamMarshaller) を使用するようクライアントを設定します。このマーシャラーは ProtoStream ライブラリーを使用して、オブジェクトのエンコーディングを手助けします。

    重要

    infinispan-remote jar が使用されていない場合、infinispan-remote-query-client Maven 依存関係を追加して ProtoStreamMarshaller を使用する必要があります。

  2. エンティティーごとのマーシャラーを登録し、ProtoStream ライブラリーにメッセージ型のマーシャル方法を指示します。

ProtoStreamMarshaller を使用したメッセージのエンコードおよびマーシャル

import org.infinispan.client.hotrod.configuration.ConfigurationBuilder;
import org.infinispan.client.hotrod.marshall.ProtoStreamMarshaller;
import org.infinispan.protostream.FileDescriptorSource;
import org.infinispan.protostream.SerializationContext;
...
ConfigurationBuilder clientBuilder = new ConfigurationBuilder();
clientBuilder.addServer()
    .host("127.0.0.1").port(11234)
    .marshaller(new ProtoStreamMarshaller());

RemoteCacheManager remoteCacheManager = new RemoteCacheManager(clientBuilder.build());
SerializationContext serCtx =
    ProtoStreamMarshaller.getSerializationContext(remoteCacheManager);
serCtx.registerProtoFiles(FileDescriptorSource.fromResources("/library.proto"));
serCtx.registerMarshaller(new BookMarshaller());
serCtx.registerMarshaller(new AuthorMarshaller());
// Book and Author classes omitted for brevity

この例では以下が実行されます。

  • SerializationContextProtoStream ライブラリーによって提供されます。
  • SerializationContext.registerProtofile メソッドは、メッセージ型の定義が含まれる .proto クラスパスリソースファイルの名前を受信します。
  • RemoteCacheManager に関連する SerializationContext が取得され、ProtoStream は protobuf 型のマーシャルを指示されます。
注記

ProtoStreamMarshaller を使用するよう設定されていないと、RemoteCacheManager に関連する SerializationContext はありません。

20.6.5. エンティティーごとのマーシャラーの登録

リモートクエリーの目的で ProtoStreamMarshaller を使用する場合、各ドメインモデル型に対してエントリーごとにマーシャラーを登録しないと、マーシャリングに失敗します。マーシャラーの 1 つのインスタンスが使用されるため、ステートレスでスレッドセーフなマーシャラーを作成する必要があります。

以下の例はマーシャラーの書き方を示しています。

BookMarshaller.java

import org.infinispan.protostream.MessageMarshaller;
...
public class BookMarshaller implements MessageMarshaller<Book> {
    @Override
    public String getTypeName() {
        return "book_sample.Book";
    }
    @Override
    public Class<? extends Book> getJavaClass() {
        return Book.class;
    }
    @Override
    public void writeTo(ProtoStreamWriter writer, Book book) throws IOException {
        writer.writeString("title", book.getTitle());
        writer.writeString("description", book.getDescription());
        writer.writeCollection("authors", book.getAuthors(), Author.class);
    }
    @Override
    public Book readFrom(ProtoStreamReader reader) throws IOException {
        String title = reader.readString("title");
        String description = reader.readString("description");
        int publicationYear = reader.readInt("publicationYear");
        Set<Author> authors = reader.readCollection("authors",
            new HashSet<Author>(), Author.class);
        return new Book(title, description, publicationYear, authors);
    }
}

クライアントが設定されたら、リモートキャッシュへの Java オブジェクトの読み書きにはエンティティーマーシャラーが使用されます。関係するすべての型のリモートクライアントでマーシャラーが登録された場合、キャッシュに格納される実際のデータは protobuf でエンコードされます。この例では、BookAuthor になります。

protobuf 形式で格納されたオブジェクトは、異なる言語で書かれた互換性のあるクライアントと使用することができます。

20.6.6. Protobuf エンコードされたエンティティーのインデックス化

Protobuf を使用するようクライアントが設定されると、サーバー側のキャッシュに対してインデックス化を設定できます。

エントリーをインデックス化するには、サーバーが Protobuf スキーマによって定義されたメッセージ型を認識できなければなりません。Protobuf スキーマファイルは、.proto 拡張子を持つファイルに定義されます。putputAllputIfAbsent、または replace 操作を使用してスキーマを ___protobuf_metadata キャッシュに置くと、スキーマはサーバーに提供されます。この代わりに、JXM 経由で ProtobufMetadataManager MBean を呼び出し、スキーマをサーバーに提供することもできます。___protobuf_metadata キャッシュのキーおよび値はともに文字列で、キーはファイル名、値はスキーマファイルの内容になります。

注記

___protobuf_metadata キャッシュへの書き込みには、書き込みを実行するユーザーに ___schema_manager ロールを追加する必要があります。

Protocol Buffers スキーマファイルの登録

import org.infinispan.client.hotrod.RemoteCache;
import org.infinispan.client.hotrod.RemoteCacheManager;
import org.infinispan.query.remote.client.ProtobufMetadataManagerConstants;

RemoteCacheManager remoteCacheManager = ... // obtain a RemoteCacheManager

// obtain the '__protobuf_metadata' cache
RemoteCache<String, String> metadataCache =
    remoteCacheManager.getCache(
        ProtobufMetadataManagerConstants.PROTOBUF_METADATA_CACHE_NAME);

String schemaFileContents = ... // this is the contents of the schema file
metadataCache.put("my_protobuf_schema.proto", schemaFileContents);

ProtobufMetadataManager は、Protobuf スキーマ定義または [path].proto ファイルのクラスター全体でレプリケートされたリポジトリーです。実行中のキャッシュマネージャーごとに個別の ProtobufMetadataManager MBean インスタンスが存在し、___protobuf_metadata キャッシュによってサポートされます。ProtobufMetadataManager ObjectName は以下のパターンを使用します。

<jmx domain>:type=RemoteQuery,
    name=<cache manager<methodname>putAllname>,
    component=ProtobufMetadataManager

以下の署名は、Protobuf スキーマファイルを登録するメソッドによって使用されます。

void registerProtofile(String name, String contents)

キャッシュのインデックス化が有効になっている場合、Protobuf エンコードされたエントリーのすべてのフィールドがインデックス化されます。Protobuf エンコードされたすべてのエントリーは、インデックス化が有効になっているかどうかに関わらず検索可能です。

注記

インデックス化はパフォーマンスの向上のために推奨されますが、リモートクエリーの使用時には必須ではありません。インデックス化を使用すると検索速度が向上しますが、インデックスの維持に必要なオーバーヘッドにより挿入および更新の速度が低下します。

20.6.7. Protobuf によるカスタムフィールドのインデックス化

デフォルトでは、すべての Protobuf 型フィールドがインデックス化および格納されます。これは、ほとんどの場合で適切な動作ですが、フィールドの数が多すぎたりフィールドが大きすぎると、パフォーマンスの問題が発生することがあります。インデックス化および格納するフィールドを指定するには、メッセージ型定義およびフィールド定義のドキュメンテーションコメントで Protobuf スキーマに直接 @Indexed および @IndexedField アノテーションを使用します。

インデックス化されるフィールドの指定

/*
  This type is indexed, but not all its fields are.
  @Indexed
*/
message Note {

  /*
     This field is indexed but not stored.
     It can be used for querying but not for projections.
     @IndexedField(index=true, store=false)
   */
  optional string text = 1;

  /*
    A field that is both indexed and stored.
    @IndexedField
   */
  optional string author = 2;

  /* @IndexedField(index=false, store=true) */
  optional bool isRead = 3;

  /* This field is not annotated, so it is neither indexed nor stored. */
  optional int32 priority;
}

アノテーションが付けられる要素 (メッセージ型またはフィールド定義) の前に付けられるドキュメンテーションコメントの最後の行にドキュメンテーションアノテーションを追加します。

@Indexed アノテーションはメッセージ型のみに適用され、ブール値を持ちます (デフォルトは true)。そのため、@Indexed の使用は @Indexed(true) と同等になります。このアノテーションは、インデックス化が必要なメッセージ型のフィールドを選択して指定するために使用されます。しかし、@Indexed(false) はインデックス化されるフィールドがないことを示すため、フィールドレベルの最終的な @IndexedField アノテーションは無視されます。

@IndexedField アノテーションはフィールドのみに適用され、2 つの属性 (index および store) があります。これらの属性のデフォルトは true です。@IndexedField の使用は @IndexedField(index=true, store=true) と同等です。index 属性はフィールドがインデックス化されるかどうかを示すため、インデックス化されたクエリーに使用されます。store 属性はフィールド値をインデックスに格納する必要があるかどうかを示すため、値は射影に使用できます。

注記

@IndexedField アノテーションは、含まれるメッセージ型に @Indexed アノテーションが付けられている場合のみ有効です。

20.6.8. Java アノテーションでの Protocol Buffers スキーマの定義

Java アノテーションを使用して Protobuf メタデータを宣言できます。MessageMarshaller 実装と .proto スキーマファイルを提供する代わりに、最小限のアノテーションを Java クラスとそのフィールドに追加できます。

この方法の目的は、ProtoStream ライブラリーを使用して Java obujekuto を protobuf にマーシャルすることです。ProtoStream ライブラリーは内部でマーシャラーを生成し、手動で実装されたマーシャラーは必要ありません。Java アノテーションには、Protobuf タグ番号などの最低限の情報が必要になります。その他は常識的なデフォルトを基に推定され (Protobuf 型、Java コレクション型、およびコレクション要素型)、オーバーライドすることができます。

自動生成されたスキーマは SerializationContext で登録され、他の言語のドメインモデルクラスおよびマーシャラーを実装するための参照として使用することもできます。

Java アノテーションの例を以下に示します。

User.Java

package sample;

import org.infinispan.protostream.annotations.ProtoEnum;
import org.infinispan.protostream.annotations.ProtoEnumValue;
import org.infinispan.protostream.annotations.ProtoField;
import org.infinispan.protostream.annotations.ProtoMessage;

@ProtoMessage(name = "ApplicationUser")
public class User {

    @ProtoEnum(name = "Gender")
    public enum Gender {
        @ProtoEnumValue(number = 1, name = "M")
        MALE,

        @ProtoEnumValue(number = 2, name = "F")
        FEMALE
    }

    @ProtoField(number = 1, required = true)
    public String name;

    @ProtoField(number = 2)
    public Gender gender;
}

Note.Java

package sample;

import org.infinispan.protostream.annotations.ProtoDoc;
import org.infinispan.protostream.annotations.ProtoField;

@ProtoDoc("@Indexed")
public class Note {

    private String text;

    private User author;

    @ProtoDoc("@IndexedField(index = true, store = false)")
    @ProtoField(number = 1)
    public String getText() {
        return text;
    }

    public void setText(String text) {
        this.text = text;
    }

    @ProtoDoc("@IndexedField")
    @ProtoField(number = 2)
    public User getAuthor() {
        return author;
    }

    public void setAuthor(User author) {
        this.author = author;
    }
}

ProtoSchemaBuilderDemo.Java

import org.infinispan.protostream.SerializationContext;
import org.infinispan.protostream.annotations.ProtoSchemaBuilder;
import org.infinispan.client.hotrod.RemoteCacheManager;
import org.infinispan.client.hotrod.marshall.ProtoStreamMarshaller;

...

RemoteCacheManager remoteCacheManager = ... // we have a RemoteCacheManager
SerializationContext serCtx =
    ProtoStreamMarshaller.getSerializationContext(remoteCacheManager);

// generate and register a Protobuf schema and marshallers based
// on Note class and the referenced classes (User class)
ProtoSchemaBuilder protoSchemaBuilder = new ProtoSchemaBuilder();
String generatedSchema = protoSchemaBuilder
    .fileName("sample_schema.proto")
    .packageName("sample_package")
    .addClass(Note.class)
    .build(serCtx);

// the types can be marshalled now
assertTrue(serCtx.canMarshall(User.class));
assertTrue(serCtx.canMarshall(Note.class));
assertTrue(serCtx.canMarshall(User.Gender.class));

// display the schema file
System.out.println(generatedSchema);

以下は、ProtoSchemaBuilderDemo.java の例によって生成される .proto ファイルになります。

Sample_Schema.Proto

package sample_package;

 /* @Indexed */
message Note {

   /* @IndexedField(index = true, store = false) */
   optional string text = 1;

   /* @IndexedField */
   optional ApplicationUser author = 2;
}

message ApplicationUser {

   enum Gender {
      M = 1;
      F = 2;
   }

   required string name = 1;
   optional Gender gender = 2;
}

以下の表は、サポートされる Java アノテーションとそのアプリケーションおよびパラメーターを示しています。

表20.2 Java アノテーション

アノテーション適用対象目的要件Parameters

@ProtoDoc

クラス/フィールド/列挙型/列挙型メンバー

生成された Protobuf スキーマ要素にアタッチされるドキュメンテーションコメントを指定します (メッセージ型、フィールド定義、列挙型、列挙値定義)。

任意

単一の文字列パラメーター、ドキュメンテーションテキスト。

@ProtoMessage

クラス

生成されたメッセージ型の名前を指定します。指定がない場合はクラス名が使用されます。

任意

名前 (文字列)、生成されたメッセージ型の名前。指定がない場合はデフォルトで Java クラス名が使用されます。