Edge n-gram tokenizer

edge_ngram トークナイザーは、指定された文字のリストのいずれかに遭遇したときに、最初にテキストを単語に分割し、その後、N-gram の開始が単語の先頭に固定された各単語の N-grams を出力します。

Edge N-Grams は 検索時入力 クエリに役立ちます。

映画や曲のタイトルなど、広く知られた順序を持つテキストに対して 検索時入力 が必要な場合、completion suggester はエッジ N-grams よりもはるかに効率的な選択肢です。エッジ N-grams は、任意の順序で出現する可能性のある単語のオートコンプリートを試みる際に利点があります。

Example output

デフォルト設定では、edge_ngram トークナイザーは初期テキストを単一のトークンとして扱い、最小長さ 1 および最大長さ 2 の N-grams を生成します:

Python

  1. resp = client.indices.analyze(
  2. tokenizer="edge_ngram",
  3. text="Quick Fox",
  4. )
  5. print(resp)

Ruby

  1. response = client.indices.analyze(
  2. body: {
  3. tokenizer: 'edge_ngram',
  4. text: 'Quick Fox'
  5. }
  6. )
  7. puts response

Js

  1. const response = await client.indices.analyze({
  2. tokenizer: "edge_ngram",
  3. text: "Quick Fox",
  4. });
  5. console.log(response);

Console

  1. POST _analyze
  2. {
  3. "tokenizer": "edge_ngram",
  4. "text": "Quick Fox"
  5. }

上記の文は次の用語を生成します:

Text

  1. [ Q, Qu ]

これらのデフォルトのグラム長はほとんど役に立ちません。使用する前に edge_ngram を構成する必要があります。

Configuration

edge_ngram トークナイザーは次のパラメータを受け入れます:

  • min_gram
  • グラム内の文字の最小長さ。デフォルトは 1
  • max_gram
  • グラム内の文字の最大長さ。デフォルトは 2
    max_gram パラメータの制限を参照してください。
  • token_chars
  • トークンに含めるべき文字クラス。Elasticsearch は、指定されたクラスに属さない文字で分割します。デフォルトは [] (すべての文字を保持)。
    文字クラスは次のいずれかである可能性があります:
    • letter— 例えば abï または
    • digit— 例えば 3 または 7
    • whitespace— 例えば " " または "\n"
    • punctuation—例えば ! または "
    • symbol— 例えば $ または
    • customcustom_token_chars 設定を使用して設定する必要があるカスタム文字。
  • custom_token_chars
  • トークンの一部として扱うべきカスタム文字。例えば、これを +-_ に設定すると、トークナイザーはプラス、マイナス、アンダースコア記号をトークンの一部として扱います。

Limitations of the max_gram parameter

edge_ngram トークナイザーの max_gram 値はトークンの文字長を制限します。edge_ngram トークナイザーがインデックスアナライザーと共に使用される場合、これは max_gram 長さよりも長い検索用語がインデックスされた用語と一致しない可能性があることを意味します。

例えば、max_gram3 の場合、apple の検索はインデックスされた用語 app と一致しません。

これに対処するために、truncate トークンフィルターを検索アナライザーと共に使用して、検索用語を max_gram 文字長に短縮できます。ただし、これにより無関係な結果が返される可能性があります。

例えば、max_gram3 で、検索用語が3文字に切り捨てられる場合、検索用語 appleapp に短縮されます。これは、apple の検索が app に一致するインデックスされた用語を返すことを意味します。例えば applyapproximate および apple

どちらのアプローチがあなたのユースケースと望ましい検索体験に最適かを確認するために、両方のアプローチをテストすることをお勧めします。

Example configuration

この例では、edge_ngram トークナイザーを構成して、文字と数字をトークンとして扱い、最小長さ 2 および最大長さ 10 のグラムを生成します:

Python

  1. resp = client.indices.create(
  2. index="my-index-000001",
  3. settings={
  4. "analysis": {
  5. "analyzer": {
  6. "my_analyzer": {
  7. "tokenizer": "my_tokenizer"
  8. }
  9. },
  10. "tokenizer": {
  11. "my_tokenizer": {
  12. "type": "edge_ngram",
  13. "min_gram": 2,
  14. "max_gram": 10,
  15. "token_chars": [
  16. "letter",
  17. "digit"
  18. ]
  19. }
  20. }
  21. }
  22. },
  23. )
  24. print(resp)
  25. resp1 = client.indices.analyze(
  26. index="my-index-000001",
  27. analyzer="my_analyzer",
  28. text="2 Quick Foxes.",
  29. )
  30. print(resp1)

Ruby

  1. response = client.indices.create(
  2. index: 'my-index-000001',
  3. body: {
  4. settings: {
  5. analysis: {
  6. analyzer: {
  7. my_analyzer: {
  8. tokenizer: 'my_tokenizer'
  9. }
  10. },
  11. tokenizer: {
  12. my_tokenizer: {
  13. type: 'edge_ngram',
  14. min_gram: 2,
  15. max_gram: 10,
  16. token_chars: [
  17. 'letter',
  18. 'digit'
  19. ]
  20. }
  21. }
  22. }
  23. }
  24. }
  25. )
  26. puts response
  27. response = client.indices.analyze(
  28. index: 'my-index-000001',
  29. body: {
  30. analyzer: 'my_analyzer',
  31. text: '2 Quick Foxes.'
  32. }
  33. )
  34. puts response

Js

  1. const response = await client.indices.create({
  2. index: "my-index-000001",
  3. settings: {
  4. analysis: {
  5. analyzer: {
  6. my_analyzer: {
  7. tokenizer: "my_tokenizer",
  8. },
  9. },
  10. tokenizer: {
  11. my_tokenizer: {
  12. type: "edge_ngram",
  13. min_gram: 2,
  14. max_gram: 10,
  15. token_chars: ["letter", "digit"],
  16. },
  17. },
  18. },
  19. },
  20. });
  21. console.log(response);
  22. const response1 = await client.indices.analyze({
  23. index: "my-index-000001",
  24. analyzer: "my_analyzer",
  25. text: "2 Quick Foxes.",
  26. });
  27. console.log(response1);

Console

  1. PUT my-index-000001
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "my_analyzer": {
  7. "tokenizer": "my_tokenizer"
  8. }
  9. },
  10. "tokenizer": {
  11. "my_tokenizer": {
  12. "type": "edge_ngram",
  13. "min_gram": 2,
  14. "max_gram": 10,
  15. "token_chars": [
  16. "letter",
  17. "digit"
  18. ]
  19. }
  20. }
  21. }
  22. }
  23. }
  24. POST my-index-000001/_analyze
  25. {
  26. "analyzer": "my_analyzer",
  27. "text": "2 Quick Foxes."
  28. }

上記の例は次の用語を生成します:

Text

  1. [ Qu, Qui, Quic, Quick, Fo, Fox, Foxe, Foxes ]

通常、インデックス時と検索時に同じ analyzer を使用することをお勧めします。edge_ngram トークナイザーの場合、アドバイスは異なります。部分的な単語がインデックスで一致するために利用可能であることを保証するために、インデックス時に edge_ngram トークナイザーを使用することは意味があります。検索時には、ユーザーが入力した用語を検索するだけです。例えば: Quick Fo

以下は、検索時入力 用のフィールドを設定する方法の例です。

インデックスアナライザーの max_gram 値が 10 であることに注意してください。これは、インデックスされた用語を10文字に制限します。検索用語は切り捨てられず、10文字を超える検索用語はインデックスされた用語と一致しない可能性があります。

Python

  1. resp = client.indices.create(
  2. index="my-index-000001",
  3. settings={
  4. "analysis": {
  5. "analyzer": {
  6. "autocomplete": {
  7. "tokenizer": "autocomplete",
  8. "filter": [
  9. "lowercase"
  10. ]
  11. },
  12. "autocomplete_search": {
  13. "tokenizer": "lowercase"
  14. }
  15. },
  16. "tokenizer": {
  17. "autocomplete": {
  18. "type": "edge_ngram",
  19. "min_gram": 2,
  20. "max_gram": 10,
  21. "token_chars": [
  22. "letter"
  23. ]
  24. }
  25. }
  26. }
  27. },
  28. mappings={
  29. "properties": {
  30. "title": {
  31. "type": "text",
  32. "analyzer": "autocomplete",
  33. "search_analyzer": "autocomplete_search"
  34. }
  35. }
  36. },
  37. )
  38. print(resp)
  39. resp1 = client.index(
  40. index="my-index-000001",
  41. id="1",
  42. document={
  43. "title": "Quick Foxes"
  44. },
  45. )
  46. print(resp1)
  47. resp2 = client.indices.refresh(
  48. index="my-index-000001",
  49. )
  50. print(resp2)
  51. resp3 = client.search(
  52. index="my-index-000001",
  53. query={
  54. "match": {
  55. "title": {
  56. "query": "Quick Fo",
  57. "operator": "and"
  58. }
  59. }
  60. },
  61. )
  62. print(resp3)

Ruby

  1. response = client.indices.create(
  2. index: 'my-index-000001',
  3. body: {
  4. settings: {
  5. analysis: {
  6. analyzer: {
  7. autocomplete: {
  8. tokenizer: 'autocomplete',
  9. filter: [
  10. 'lowercase'
  11. ]
  12. },
  13. autocomplete_search: {
  14. tokenizer: 'lowercase'
  15. }
  16. },
  17. tokenizer: {
  18. autocomplete: {
  19. type: 'edge_ngram',
  20. min_gram: 2,
  21. max_gram: 10,
  22. token_chars: [
  23. 'letter'
  24. ]
  25. }
  26. }
  27. }
  28. },
  29. mappings: {
  30. properties: {
  31. title: {
  32. type: 'text',
  33. analyzer: 'autocomplete',
  34. search_analyzer: 'autocomplete_search'
  35. }
  36. }
  37. }
  38. }
  39. )
  40. puts response
  41. response = client.index(
  42. index: 'my-index-000001',
  43. id: 1,
  44. body: {
  45. title: 'Quick Foxes'
  46. }
  47. )
  48. puts response
  49. response = client.indices.refresh(
  50. index: 'my-index-000001'
  51. )
  52. puts response
  53. response = client.search(
  54. index: 'my-index-000001',
  55. body: {
  56. query: {
  57. match: {
  58. title: {
  59. query: 'Quick Fo',
  60. operator: 'and'
  61. }
  62. }
  63. }
  64. }
  65. )
  66. puts response

Js

  1. const response = await client.indices.create({
  2. index: "my-index-000001",
  3. settings: {
  4. analysis: {
  5. analyzer: {
  6. autocomplete: {
  7. tokenizer: "autocomplete",
  8. filter: ["lowercase"],
  9. },
  10. autocomplete_search: {
  11. tokenizer: "lowercase",
  12. },
  13. },
  14. tokenizer: {
  15. autocomplete: {
  16. type: "edge_ngram",
  17. min_gram: 2,
  18. max_gram: 10,
  19. token_chars: ["letter"],
  20. },
  21. },
  22. },
  23. },
  24. mappings: {
  25. properties: {
  26. title: {
  27. type: "text",
  28. analyzer: "autocomplete",
  29. search_analyzer: "autocomplete_search",
  30. },
  31. },
  32. },
  33. });
  34. console.log(response);
  35. const response1 = await client.index({
  36. index: "my-index-000001",
  37. id: 1,
  38. document: {
  39. title: "Quick Foxes",
  40. },
  41. });
  42. console.log(response1);
  43. const response2 = await client.indices.refresh({
  44. index: "my-index-000001",
  45. });
  46. console.log(response2);
  47. const response3 = await client.search({
  48. index: "my-index-000001",
  49. query: {
  50. match: {
  51. title: {
  52. query: "Quick Fo",
  53. operator: "and",
  54. },
  55. },
  56. },
  57. });
  58. console.log(response3);

Console

  1. PUT my-index-000001
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "autocomplete": {
  7. "tokenizer": "autocomplete",
  8. "filter": [
  9. "lowercase"
  10. ]
  11. },
  12. "autocomplete_search": {
  13. "tokenizer": "lowercase"
  14. }
  15. },
  16. "tokenizer": {
  17. "autocomplete": {
  18. "type": "edge_ngram",
  19. "min_gram": 2,
  20. "max_gram": 10,
  21. "token_chars": [
  22. "letter"
  23. ]
  24. }
  25. }
  26. }
  27. },
  28. "mappings": {
  29. "properties": {
  30. "title": {
  31. "type": "text",
  32. "analyzer": "autocomplete",
  33. "search_analyzer": "autocomplete_search"
  34. }
  35. }
  36. }
  37. }
  38. PUT my-index-000001/_doc/1
  39. {
  40. "title": "Quick Foxes"
  41. }
  42. POST my-index-000001/_refresh
  43. GET my-index-000001/_search
  44. {
  45. "query": {
  46. "match": {
  47. "title": {
  48. "query": "Quick Fo",
  49. "operator": "and"
  50. }
  51. }
  52. }
  53. }
autocomplete アナライザーは [qu, qui, quic, quick, fo, fox, foxe, foxes] 用語をインデックスします。
autocomplete_search アナライザーは [quick, fo] 用語を検索します。どちらもインデックスに存在します。