ワードデリミタートークンフィルター

word_delimiter_graph フィルターを word_delimiter フィルターの代わりに使用することをお勧めします。

word_delimiter フィルターは無効なトークングラフを生成する可能性があります。 word_delimiter_graphword_delimiter の違い を参照してください。

word_delimiter フィルターは、非推奨としてマークされた Lucene の WordDelimiterFilter も使用します。

非英数字文字でトークンを分割します。 word_delimiter フィルターは、ルールのセットに基づいてオプションのトークン正規化も実行します。 デフォルトでは、フィルターは次のルールを使用します:

  • 非英数字文字でトークンを分割します。 フィルターはこれらの文字をデリミタとして使用します。 例えば: Super-DuperSuper, Duper
  • 各トークンの先頭または末尾のデリミタを削除します。 例えば: XL---42+'Autocoder'XL, 42, Autocoder
  • 大文字小文字の変遷でトークンを分割します。 例えば: PowerShotPower, Shot
  • 文字と数字の変遷でトークンを分割します。 例えば: XL500XL, 500
  • 各トークンの末尾から英語の所有格 ('s) を削除します。 例えば: Neil'sNeil

word_delimiter フィルターは、製品 ID や部品番号などの複雑な識別子から句読点を削除するために設計されました。 これらのユースケースには、[word_delimiter] フィルターと keyword トークナイザーを使用することをお勧めします。

word_delimiter フィルターを使用してハイフン付きの単語を分割することは避けてください。 例えば wi-fi。 ユーザーはこれらの単語をハイフンありとなしの両方で検索することが多いため、synonym_graph フィルターを代わりに使用することをお勧めします。

次の analyze API リクエストは、word_delimiter フィルターを使用して Neil's-Super-Duper-XL500--42+AutoCoder をフィルターのデフォルトルールを使用して正規化されたトークンに分割します:

Python

  1. resp = client.indices.analyze(
  2. tokenizer="keyword",
  3. filter=[
  4. "word_delimiter"
  5. ],
  6. text="Neil's-Super-Duper-XL500--42+AutoCoder",
  7. )
  8. print(resp)

Ruby

  1. response = client.indices.analyze(
  2. body: {
  3. tokenizer: 'keyword',
  4. filter: [
  5. 'word_delimiter'
  6. ],
  7. text: "Neil's-Super-Duper-XL500--42+AutoCoder"
  8. }
  9. )
  10. puts response

Js

  1. const response = await client.indices.analyze({
  2. tokenizer: "keyword",
  3. filter: ["word_delimiter"],
  4. text: "Neil's-Super-Duper-XL500--42+AutoCoder",
  5. });
  6. console.log(response);

コンソール

  1. GET /_analyze
  2. {
  3. "tokenizer": "keyword",
  4. "filter": [ "word_delimiter" ],
  5. "text": "Neil's-Super-Duper-XL500--42+AutoCoder"
  6. }

フィルターは次のトークンを生成します:

Txt

  1. [ Neil, Super, Duper, XL, 500, 42, Auto, Coder ]

アナライザーに追加

次の create index API リクエストは、word_delimiter フィルターを使用して新しい カスタムアナライザー を構成します。

Python

  1. resp = client.indices.create(
  2. index="my-index-000001",
  3. settings={
  4. "analysis": {
  5. "analyzer": {
  6. "my_analyzer": {
  7. "tokenizer": "keyword",
  8. "filter": [
  9. "word_delimiter"
  10. ]
  11. }
  12. }
  13. }
  14. },
  15. )
  16. print(resp)

Ruby

  1. response = client.indices.create(
  2. index: 'my-index-000001',
  3. body: {
  4. settings: {
  5. analysis: {
  6. analyzer: {
  7. my_analyzer: {
  8. tokenizer: 'keyword',
  9. filter: [
  10. 'word_delimiter'
  11. ]
  12. }
  13. }
  14. }
  15. }
  16. }
  17. )
  18. puts response

Js

  1. const response = await client.indices.create({
  2. index: "my-index-000001",
  3. settings: {
  4. analysis: {
  5. analyzer: {
  6. my_analyzer: {
  7. tokenizer: "keyword",
  8. filter: ["word_delimiter"],
  9. },
  10. },
  11. },
  12. },
  13. });
  14. console.log(response);

コンソール

  1. PUT /my-index-000001
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "my_analyzer": {
  7. "tokenizer": "keyword",
  8. "filter": [ "word_delimiter" ]
  9. }
  10. }
  11. }
  12. }
  13. }

word_delimiter フィルターを、standard トークナイザーのように句読点を削除するトークナイザーと一緒に使用することは避けてください。 これにより、word_delimiter フィルターがトークンを正しく分割できなくなる可能性があります。 また、catenate_allpreserve_original などのフィルターの設定可能なパラメータに干渉する可能性があります。 代わりに、keyword または whitespace トークナイザーを使用することをお勧めします。

設定可能なパラメータ

  • catenate_all
  • (オプション、ブール値) true の場合、フィルターは非アルファベットデリミタで区切られた英数字の文字のチェーンに対して連結トークンを生成します。 例えば: super-duper-xl-500 → [ super, superduperxl500, duper, xl, 500 ]。 デフォルトは false です。
    検索分析に使用される場合、連結トークンは match_phrase クエリやトークン位置に依存する他のクエリに問題を引き起こす可能性があります。 これらのクエリを使用する予定がある場合は、このパラメータを true に設定しないでください。
  • catenate_numbers
  • (オプション、ブール値) true の場合、フィルターは非アルファベットデリミタで区切られた数字の文字のチェーンに対して連結トークンを生成します。 例えば: 01-02-03 → [ 01, 010203, 02, 03 ]。 デフォルトは false です。
    検索分析に使用される場合、連結トークンは match_phrase クエリやトークン位置に依存する他のクエリに問題を引き起こす可能性があります。 これらのクエリを使用する予定がある場合は、このパラメータを true に設定しないでください。
  • catenate_words
  • (オプション、ブール値) true の場合、フィルターは非アルファベットデリミタで区切られたアルファベットの文字のチェーンに対して連結トークンを生成します。 例えば: super-duper-xl → [ super, superduperxl, duper, xl ]。 デフォルトは false です。
    検索分析に使用される場合、連結トークンは match_phrase クエリやトークン位置に依存する他のクエリに問題を引き起こす可能性があります。 これらのクエリを使用する予定がある場合は、このパラメータを true に設定しないでください。
  • generate_number_parts
  • (オプション、ブール値) true の場合、フィルターは出力に数字のみからなるトークンを含めます。 false の場合、フィルターはこれらのトークンを出力から除外します。 デフォルトは true です。
  • generate_word_parts
  • (オプション、ブール値) true の場合、フィルターは出力にアルファベットのみからなるトークンを含めます。 false の場合、フィルターはこれらのトークンを出力から除外します。 デフォルトは true です。
  • preserve_original
  • (オプション、ブール値) true の場合、フィルターは出力に分割されたトークンの元のバージョンを含めます。 この元のバージョンには非英数字デリミタが含まれます。 例えば: super-duper-xl-500 → [ super-duper-xl-500, super, duper, xl, 500 ]。 デフォルトは false です。
  • protected_words
  • (オプション、文字列の配列) フィルターが分割しないトークンの配列。
  • protected_words_path
  • (オプション、文字列) フィルターが分割しないトークンのリストを含むファイルへのパス。
    このパスは絶対パスまたは config の場所に対する相対パスでなければならず、ファイルは UTF-8 エンコードされている必要があります。 ファイル内の各トークンは改行で区切られている必要があります。
  • split_on_case_change
  • (オプション、ブール値) true の場合、フィルターは大文字小文字の変遷でトークンを分割します。 例えば: camelCase → [ camel, Case ]。 デフォルトは true です。
  • split_on_numerics
  • (オプション、ブール値) true の場合、フィルターは文字と数字の変遷でトークンを分割します。 例えば: j2se → [ j, 2, se ]。 デフォルトは true です。
  • stem_english_possessive
  • (オプション、ブール値) true の場合、フィルターは各トークンの末尾から英語の所有格 ('s) を削除します。 例えば: O'Neil's → [ O, Neil ]。 デフォルトは true です。
  • type_table
  • (オプション、文字列の配列) 文字のカスタムタイプマッピングの配列。 これにより、非アルファベット文字を数字またはアルファベットとしてマッピングして、それらの文字で分割しないようにすることができます。
    例えば、次の配列はプラス (+) とハイフン (-) 文字をアルファベットとしてマッピングし、これによりそれらがデリミタとして扱われないことを意味します:
    [ "+ => ALPHA", "- => ALPHA" ]
    サポートされているタイプには次のものが含まれます:
    • ALPHA (アルファベット)
    • ALPHANUM (アルファベットと数字)
    • DIGIT (数字)
    • LOWER (小文字のアルファベット)
    • SUBWORD_DELIM (非アルファベットデリミタ)
    • UPPER (大文字のアルファベット)
  • type_table_path
  • (オプション、文字列) 文字のカスタムタイプマッピングを含むファイルへのパス。 これにより、非アルファベット文字を数字またはアルファベットとしてマッピングして、それらの文字で分割しないようにすることができます。
    例えば、このファイルの内容には次のようなものが含まれる場合があります:

Txt

  1. # $, %, '.', と ',' 文字を DIGIT にマッピング
  2. # これは財務データに役立つかもしれません。
  3. $ =
  4. % =
  5. . =
  6. \\u002C =
  7. # 場合によっては ZWJ で分割したくないことがあります
  8. # これはより大きな byte[] が必要なケースをテストします。
  9. # https://en.wikipedia.org/wiki/Zero-width_joiner を参照してください
  10. \\u200D =

サポートされているタイプには次のものが含まれます:

  • ALPHA (アルファベット)
  • ALPHANUM (アルファベットと数字)
  • DIGIT (数字)
  • LOWER (小文字のアルファベット)
  • SUBWORD_DELIM (非アルファベットデリミタ)
  • UPPER (大文字のアルファベット)
    このファイルパスは config の場所に対する絶対パスまたは相対パスでなければならず、ファイルは UTF-8 エンコードされている必要があります。 ファイル内の各マッピングは改行で区切られている必要があります。

カスタマイズ

word_delimiter フィルターをカスタマイズするには、それを複製して新しいカスタムトークンフィルターの基礎を作成します。 設定可能なパラメータを使用してフィルターを変更できます。

例えば、次のリクエストは、次のルールを使用して word_delimiter フィルターを作成します:

  • ハイフン (-) 文字を除いて、非アルファベット文字でトークンを分割します。
  • 各トークンの先頭または末尾のデリミタを削除します。
  • 大文字小文字の変遷でトークンを分割しません。
  • 文字と数字の変遷でトークンを分割しません。
  • 各トークンの末尾から英語の所有格 ('s) を削除します。

Python

  1. resp = client.indices.create(
  2. index="my-index-000001",
  3. settings={
  4. "analysis": {
  5. "analyzer": {
  6. "my_analyzer": {
  7. "tokenizer": "keyword",
  8. "filter": [
  9. "my_custom_word_delimiter_filter"
  10. ]
  11. }
  12. },
  13. "filter": {
  14. "my_custom_word_delimiter_filter": {
  15. "type": "word_delimiter",
  16. "type_table": [
  17. "- => ALPHA"
  18. ],
  19. "split_on_case_change": False,
  20. "split_on_numerics": False,
  21. "stem_english_possessive": True
  22. }
  23. }
  24. }
  25. },
  26. )
  27. print(resp)

Ruby

  1. response = client.indices.create(
  2. index: 'my-index-000001',
  3. body: {
  4. settings: {
  5. analysis: {
  6. analyzer: {
  7. my_analyzer: {
  8. tokenizer: 'keyword',
  9. filter: [
  10. 'my_custom_word_delimiter_filter'
  11. ]
  12. }
  13. },
  14. filter: {
  15. my_custom_word_delimiter_filter: {
  16. type: 'word_delimiter',
  17. type_table: [
  18. '- => ALPHA'
  19. ],
  20. split_on_case_change: false,
  21. split_on_numerics: false,
  22. stem_english_possessive: true
  23. }
  24. }
  25. }
  26. }
  27. }
  28. )
  29. puts response

Js

  1. const response = await client.indices.create({
  2. index: "my-index-000001",
  3. settings: {
  4. analysis: {
  5. analyzer: {
  6. my_analyzer: {
  7. tokenizer: "keyword",
  8. filter: ["my_custom_word_delimiter_filter"],
  9. },
  10. },
  11. filter: {
  12. my_custom_word_delimiter_filter: {
  13. type: "word_delimiter",
  14. type_table: ["- => ALPHA"],
  15. split_on_case_change: false,
  16. split_on_numerics: false,
  17. stem_english_possessive: true,
  18. },
  19. },
  20. },
  21. },
  22. });
  23. console.log(response);

コンソール

  1. PUT /my-index-000001
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "my_analyzer": {
  7. "tokenizer": "keyword",
  8. "filter": [ "my_custom_word_delimiter_filter" ]
  9. }
  10. },
  11. "filter": {
  12. "my_custom_word_delimiter_filter": {
  13. "type": "word_delimiter",
  14. "type_table": [ "- => ALPHA" ],
  15. "split_on_case_change": false,
  16. "split_on_numerics": false,
  17. "stem_english_possessive": true
  18. }
  19. }
  20. }
  21. }
  22. }