キーワードアナライザー

keyword アナライザーは「noop」アナライザーで、入力文字列全体を単一のトークンとして返します。

例の出力

Python

  1. resp = client.indices.analyze(
  2. analyzer="keyword",
  3. text="The 2 QUICK Brown-Foxes jumped over the lazy dog's bone.",
  4. )
  5. print(resp)

Ruby

  1. response = client.indices.analyze(
  2. body: {
  3. analyzer: 'keyword',
  4. text: "The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."
  5. }
  6. )
  7. puts response

Js

  1. const response = await client.indices.analyze({
  2. analyzer: "keyword",
  3. text: "The 2 QUICK Brown-Foxes jumped over the lazy dog's bone.",
  4. });
  5. console.log(response);

コンソール

  1. POST _analyze
  2. {
  3. "analyzer": "keyword",
  4. "text": "The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."
  5. }

上記の文は次の単一の用語を生成します:

テキスト

  1. [ The 2 QUICK Brown-Foxes jumped over the lazy dog's bone. ]

設定

keyword アナライザーは設定可能ではありません。

定義

keyword アナライザーは次のもので構成されています:

keyword アナライザーをカスタマイズする必要がある場合は、custom アナライザーとして再作成し、通常はトークンフィルターを追加することで修正する必要があります。通常、トークンに分割されない文字列が必要な場合は キーワードタイプ を優先すべきですが、必要な場合は、組み込みの keyword アナライザーを再作成し、さらなるカスタマイズの出発点として使用できます:

Python

  1. resp = client.indices.create(
  2. index="keyword_example",
  3. settings={
  4. "analysis": {
  5. "analyzer": {
  6. "rebuilt_keyword": {
  7. "tokenizer": "keyword",
  8. "filter": []
  9. }
  10. }
  11. }
  12. },
  13. )
  14. print(resp)

Ruby

  1. response = client.indices.create(
  2. index: 'keyword_example',
  3. body: {
  4. settings: {
  5. analysis: {
  6. analyzer: {
  7. rebuilt_keyword: {
  8. tokenizer: 'keyword',
  9. filter: []
  10. }
  11. }
  12. }
  13. }
  14. }
  15. )
  16. puts response

Js

  1. const response = await client.indices.create({
  2. index: "keyword_example",
  3. settings: {
  4. analysis: {
  5. analyzer: {
  6. rebuilt_keyword: {
  7. tokenizer: "keyword",
  8. filter: [],
  9. },
  10. },
  11. },
  12. },
  13. });
  14. console.log(response);

コンソール

  1. PUT /keyword_example
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "rebuilt_keyword": {
  7. "tokenizer": "keyword",
  8. "filter": [
  9. ]
  10. }
  11. }
  12. }
  13. }
  14. }
ここにトークンフィルターを追加します。