N-gram token filter

指定された長さのn-gramsをトークンから形成します。

例えば、ngramトークンフィルターを使用してfox[ f, fo, o, ox, x ]に変更できます。

このフィルターはLuceneのNGramTokenFilterを使用します。

  1. ## Example
  2. 以下の[analyze API](/read/elasticsearch-8-15/1a51b9d359d8a54c.md)リクエストは、`````ngram`````フィルターを使用して`````Quick fox`````1文字および2文字のn-gramsに変換します:
  3. #### Python
  4. ``````python
  5. resp = client.indices.analyze(
  6. tokenizer="standard",
  7. filter=[
  8. "ngram"
  9. ],
  10. text="Quick fox",
  11. )
  12. print(resp)
  13. `

Ruby

  1. response = client.indices.analyze(
  2. body: {
  3. tokenizer: 'standard',
  4. filter: [
  5. 'ngram'
  6. ],
  7. text: 'Quick fox'
  8. }
  9. )
  10. puts response

Js

  1. const response = await client.indices.analyze({
  2. tokenizer: "standard",
  3. filter: ["ngram"],
  4. text: "Quick fox",
  5. });
  6. console.log(response);

Console

  1. GET _analyze
  2. {
  3. "tokenizer": "standard",
  4. "filter": [ "ngram" ],
  5. "text": "Quick fox"
  6. }

フィルターは以下のトークンを生成します:

Text

  1. [ Q, Qu, u, ui, i, ic, c, ck, k, f, fo, o, ox, x ]

Add to an analyzer

以下のcreate index APIリクエストは、ngramフィルターを使用して新しいcustom analyzerを構成します。

Python

  1. resp = client.indices.create(
  2. index="ngram_example",
  3. settings={
  4. "analysis": {
  5. "analyzer": {
  6. "standard_ngram": {
  7. "tokenizer": "standard",
  8. "filter": [
  9. "ngram"
  10. ]
  11. }
  12. }
  13. }
  14. },
  15. )
  16. print(resp)

Ruby

  1. response = client.indices.create(
  2. index: 'ngram_example',
  3. body: {
  4. settings: {
  5. analysis: {
  6. analyzer: {
  7. standard_ngram: {
  8. tokenizer: 'standard',
  9. filter: [
  10. 'ngram'
  11. ]
  12. }
  13. }
  14. }
  15. }
  16. }
  17. )
  18. puts response

Js

  1. const response = await client.indices.create({
  2. index: "ngram_example",
  3. settings: {
  4. analysis: {
  5. analyzer: {
  6. standard_ngram: {
  7. tokenizer: "standard",
  8. filter: ["ngram"],
  9. },
  10. },
  11. },
  12. },
  13. });
  14. console.log(response);

Console

  1. PUT ngram_example
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "standard_ngram": {
  7. "tokenizer": "standard",
  8. "filter": [ "ngram" ]
  9. }
  10. }
  11. }
  12. }
  13. }

Configurable parameters

  • max_gram
  • (オプション、整数)グラム内の文字の最大長。デフォルトは2です。
  • min_gram
  • (オプション、整数)グラム内の文字の最小長。デフォルトは1です。
  • preserve_original
  • (オプション、ブール値)trueに設定すると元のトークンを出力します。デフォルトはfalseです。

index.max_ngram_diffインデックスレベル設定を使用して、max_grammin_gramの値の間の最大許可差を制御できます。

Customize

  1. 例えば、以下のリクエストは、35文字のn-gramsを形成するカスタム`````ngram`````フィルターを作成します。このリクエストは`````index.max_ngram_diff`````設定を`````2`````に増加させます。
  2. #### Python
  3. ``````python
  4. resp = client.indices.create(
  5. index="ngram_custom_example",
  6. settings={
  7. "index": {
  8. "max_ngram_diff": 2
  9. },
  10. "analysis": {
  11. "analyzer": {
  12. "default": {
  13. "tokenizer": "whitespace",
  14. "filter": [
  15. "3_5_grams"
  16. ]
  17. }
  18. },
  19. "filter": {
  20. "3_5_grams": {
  21. "type": "ngram",
  22. "min_gram": 3,
  23. "max_gram": 5
  24. }
  25. }
  26. }
  27. },
  28. )
  29. print(resp)
  30. `

Ruby

  1. response = client.indices.create(
  2. index: 'ngram_custom_example',
  3. body: {
  4. settings: {
  5. index: {
  6. max_ngram_diff: 2
  7. },
  8. analysis: {
  9. analyzer: {
  10. default: {
  11. tokenizer: 'whitespace',
  12. filter: [
  13. '3_5_grams'
  14. ]
  15. }
  16. },
  17. filter: {
  18. "3_5_grams": {
  19. type: 'ngram',
  20. min_gram: 3,
  21. max_gram: 5
  22. }
  23. }
  24. }
  25. }
  26. }
  27. )
  28. puts response

Js

  1. const response = await client.indices.create({
  2. index: "ngram_custom_example",
  3. settings: {
  4. index: {
  5. max_ngram_diff: 2,
  6. },
  7. analysis: {
  8. analyzer: {
  9. default: {
  10. tokenizer: "whitespace",
  11. filter: ["3_5_grams"],
  12. },
  13. },
  14. filter: {
  15. "3_5_grams": {
  16. type: "ngram",
  17. min_gram: 3,
  18. max_gram: 5,
  19. },
  20. },
  21. },
  22. },
  23. });
  24. console.log(response);

Console

  1. PUT ngram_custom_example
  2. {
  3. "settings": {
  4. "index": {
  5. "max_ngram_diff": 2
  6. },
  7. "analysis": {
  8. "analyzer": {
  9. "default": {
  10. "tokenizer": "whitespace",
  11. "filter": [ "3_5_grams" ]
  12. }
  13. },
  14. "filter": {
  15. "3_5_grams": {
  16. "type": "ngram",
  17. "min_gram": 3,
  18. "max_gram": 5
  19. }
  20. }
  21. }
  22. }
  23. }