トレーニング済みモデルAPI
トレーニング済みモデルを評価します。モデルは、データフレーム分析によってトレーニングされた任意の監視モデルまたはインポートされたモデルである可能性があります。
キャッシュが有効なモデルデプロイメントの場合、結果は推論キャッシュから直接返されることがあります。
リクエスト
POST _ml/trained_models/<model_id>/_infer
POST _ml/trained_models/<deployment_id>/_infer
パスパラメータ
<model_id>
- (オプション、文字列)トレーニング済みモデルの一意の識別子またはモデルエイリアス。
API呼び出しでmodel_id
を指定した場合、モデルに複数のデプロイメントがあると、ランダムなデプロイメントが使用されます。model_id
がデプロイメントのIDと一致する場合、そのデプロイメントが使用されます。
<deployment_id>
- (オプション、文字列)モデルのデプロイメントの一意の識別子。
クエリパラメータ
timeout
- (オプション、時間)推論結果を待つ時間の量を制御します。デフォルトは10秒です。
Request body
docs
(必須、配列) モデルに推論のために渡すオブジェクトの配列。オブジェクトは、設定されたトレーニングモデルの入力に一致するフィールドを含む必要があります。通常、NLPモデルの場合、フィールド名は
text_field
です。このプロパティで指定された各推論入力フィールドは、文字列の配列ではなく、単一の文字列でなければなりません。inference_config
- (オプション、オブジェクト) 推論のためのデフォルト設定。これには、
regression
、classification
、fill_mask
、ner
、question_answering
、text_classification
、text_embedding
またはzero_shot_classification
が含まれます。regression
またはclassification
の場合、基盤となるdefinition.trained_model
のtarget_type
と一致する必要があります。fill_mask
、ner
、question_answering
、text_classification
、またはtext_embedding
の場合、model_type
はpytorch
でなければなりません。指定されていない場合、モデルが作成されたときのinference_config
が使用されます。inference_config
のプロパティclassification
- (オプション、オブジェクト) 推論のための分類設定。
分類推論のプロパティnum_top_classes
- (オプション、整数) 戻すトップクラス予測の数を指定します。デフォルトは0です。
num_top_feature_importance_values
- (オプション、整数) ドキュメントごとの特徴重要度値の最大数を指定します。デフォルトは0で、特徴重要度の計算は行われません。
prediction_field_type
- (オプション、文字列) 書き込む予測フィールドのタイプを指定します。有効な値は、
string
、number
、boolean
です。boolean
が提供されると、1.0
はtrue
に変換され、0.0
はfalse
に変換されます。 results_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 top_classes_results_field
- (オプション、文字列) トップクラスが書き込まれるフィールドを指定します。デフォルトは
top_classes
です。
fill_mask
- (オプション、オブジェクト) fill_mask 自然言語処理 (NLP) タスクの設定。fill_mask タスクは、fill mask アクションに最適化されたモデルで機能します。たとえば、BERTモデルの場合、次のテキストを提供できます:
「フランスの首都は [MASK] です。」応答は、[MASK]
を置き換える可能性が最も高い値を示します。この場合、最も可能性の高いトークンはparis
です。
fill_mask 推論のプロパティnum_top_classes
- (オプション、整数) マスクトークンを置き換えるために返す上位予測トークンの数。デフォルトは
0
です。 results_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
ner
- (オプション、オブジェクト) 名前付きエンティティ認識 (NER) タスクを設定します。NERはトークン分類の特別なケースです。シーケンス内の各トークンは、提供された分類ラベルに従って分類されます。現在、NERタスクは
classification_labels
Inside-Outside-Beginning (IOB) 形式のラベルを必要とします。人、組織、場所、その他のカテゴリのみがサポートされています。
ner推論のプロパティresults_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
pass_through
- (オプション、オブジェクト)
pass_through
タスクを設定します。このタスクは、推論出力に対して後処理が行われないため、デバッグに役立ち、未加工のプーリング層の結果が呼び出し元に返されます。
pass_through推論のプロパティresults_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
question_answering
- (オプション、オブジェクト) 質問応答自然言語処理 (NLP) タスクを設定します。質問応答は、大規模なテキストコーパスから特定の質問に対する回答を抽出するのに役立ちます。
質問応答推論のプロパティmax_answer_length
- (オプション、整数) 回答の最大単語数。デフォルトは
15
です。 num_top_classes
- (オプション、整数) 返す上位の見つかった回答の数。デフォルトは
0
で、最も良い見つかった回答のみが返されます。 question
- (必須、文字列) 回答を抽出する際に使用する質問
results_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)span
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
regression
- (オプション、オブジェクト) 回帰推論の設定。
回帰推論のプロパティnum_top_feature_importance_values
- (オプション、整数) ドキュメントごとの特徴重要度値の最大数を指定します。デフォルトは0で、特徴重要度の計算は行われません。
results_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。
text_classification
- (オプション、オブジェクト) テキスト分類タスク。テキスト分類は、提供されたテキストシーケンスを以前に知られているターゲットクラスに分類します。具体的な例としては、感情分析があり、テキストの感情を示す「悲しい」、「幸せ」、「怒っている」などのターゲットクラスを返します。
テキスト分類推論のプロパティclassification_labels
- (オプション、文字列) 分類ラベルの配列。
num_top_classes
- (オプション、整数) 返す上位クラス予測の数を指定します。デフォルトはすべてのクラス (-1) です。
results_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)span
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
text_embedding
- (オブジェクト、オプション) テキスト埋め込みは、入力シーケンスを受け取り、それを数値のベクトルに変換します。これらの埋め込みは、単にトークンをキャプチャするだけでなく、意味や文脈を捉えます。これらの埋め込みは、強力な洞察のために 密なベクトル フィールドで使用できます。
テキスト埋め込み推論のプロパティresults_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
text_similarity
- (オブジェクト、オプション) テキスト類似性は、入力シーケンスを受け取り、別の入力シーケンスと比較します。これは一般的にクロスエンコーディングと呼ばれます。このタスクは、別の提供されたテキスト入力と比較する際にドキュメントテキストのランク付けに役立ちます。
テキスト類似性推論のプロパティspan_score_combination_function
- (オプション、文字列) 提供されたテキストパッセージが
max_sequence_length
より長い場合、結果の類似性スコアをどのように組み合わせるかを識別します。これは、truncate
がnone
で、span
が非負の数である場合にのみ適用されます。デフォルト値はmax
です。利用可能なオプションは: max
: すべてのスパンからの最大スコアが返されます。mean
: すべてのスパンの平均スコアが返されます。text
- (必須、文字列) これは、すべての提供されたドキュメントテキスト入力と比較するテキストです。
tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 with_special_tokens
- (オプション、ブール値)特殊トークンでトークン化します。BERTスタイルのトークン化に通常含まれるトークンは:
[CLS]
: 分類されるシーケンスの最初のトークン。[SEP]
: シーケンスの分離を示します。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティspan
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)span
- (オプション、整数)
truncate
がnone
の場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
デフォルト値は-1
で、ウィンドウやスパンは発生しません。
通常の入力がmax_sequence_length
よりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。 with_special_tokens
- (オプション、ブール値)
true
の場合、特殊トークンでトークン化します。
zero_shot_classification
- (オブジェクト、オプション) ゼロショット分類タスクを設定します。ゼロショット分類は、事前に決定されたラベルなしでテキスト分類を行うことを可能にします。推論時に、分類するためのラベルを調整することが可能です。これにより、このタイプのモデルとタスクは非常に柔軟になります。
同じラベルを一貫して分類する場合は、微調整されたテキスト分類モデルを使用する方が良いかもしれません。
ゼロショット分類推論のプロパティlabels
- (オプション、配列) 分類するラベル。デフォルトラベルの作成時に設定でき、推論中に更新できます。
multi_label
- (オプション、ブール値) 入力に対して複数の
true
ラベルが可能かどうかを示します。これは、複数の入力ラベルに関連する可能性のあるテキストにラベルを付ける際に便利です。デフォルトはfalse
です。 results_field
- (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは
predicted_value
です。 tokenization
- (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定は
bert
です。有効なトークン化値は bert
: BERTスタイルのモデルに使用mpnet
: MPNetスタイルのモデルに使用roberta
: RoBERTaスタイルおよびBARTスタイルのモデルに使用- [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
xlm_roberta
: XLMRoBERTaスタイルのモデルに使用 - [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。
bert_ja
: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
トークン化のプロパティ bert
- (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
BERTのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
roberta
- (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
mpnet
- (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
MPNetのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
xlm_roberta
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
XLM-RoBERTaのプロパティtruncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
bert_ja
- (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
BERTのプロパティ(日本語)truncate
- (オプション、文字列) トークンが
max_sequence_length
を超えた場合の切り捨て方法を示します。デフォルト値はfirst
です。none
: 切り捨ては行われず、推論リクエストはエラーを受け取ります。first
: 最初のシーケンスのみが切り捨てられます。second
: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。zero_shot_classification
の場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合second
を使用しないでください。
Examples
応答はモデルの種類によって異なります。
たとえば、言語識別の場合、応答は予測された言語とスコアです:
Python
resp = client.ml.infer_trained_model(
model_id="lang_ident_model_1",
docs=[
{
"text": "The fool doth think he is wise, but the wise man knows himself to be a fool."
}
],
)
print(resp)
Ruby
response = client.ml.infer_trained_model(
model_id: 'lang_ident_model_1',
body: {
docs: [
{
text: 'The fool doth think he is wise, but the wise man knows himself to be a fool.'
}
]
}
)
puts response
Js
const response = await client.ml.inferTrainedModel({
model_id: "lang_ident_model_1",
docs: [
{
text: "The fool doth think he is wise, but the wise man knows himself to be a fool.",
},
],
});
console.log(response);
Console
POST _ml/trained_models/lang_ident_model_1/_infer
{
"docs":[{"text": "The fool doth think he is wise, but the wise man knows himself to be a fool."}]
}
Console-Result
{
"inference_results": [
{
"predicted_value": "en",
"prediction_probability": 0.9999658805366392,
"prediction_score": 0.9999658805366392
}
]
}
テキスト分類モデルの場合、応答はスコアと予測された分類です。
例えば:
Python
resp = client.ml.infer_trained_model(
model_id="model2",
docs=[
{
"text_field": "The movie was awesome!!"
}
],
)
print(resp)
Ruby
response = client.ml.infer_trained_model(
model_id: 'model2',
body: {
docs: [
{
text_field: 'The movie was awesome!!'
}
]
}
)
puts response
Js
const response = await client.ml.inferTrainedModel({
model_id: "model2",
docs: [
{
text_field: "The movie was awesome!!",
},
],
});
console.log(response);
Console
POST _ml/trained_models/model2/_infer
{
"docs": [{"text_field": "The movie was awesome!!"}]
}
Console-Result
{
"inference_results": [{
"predicted_value" : "POSITIVE",
"prediction_probability" : 0.9998667964092964
}]
}
名前付きエンティティ認識 (NER) モデルの場合、応答には注釈付きテキスト出力と認識されたエンティティが含まれます。
Python
resp = client.ml.infer_trained_model(
model_id="model2",
docs=[
{
"text_field": "Hi my name is Josh and I live in Berlin"
}
],
)
print(resp)
Ruby
response = client.ml.infer_trained_model(
model_id: 'model2',
body: {
docs: [
{
text_field: 'Hi my name is Josh and I live in Berlin'
}
]
}
)
puts response
Js
const response = await client.ml.inferTrainedModel({
model_id: "model2",
docs: [
{
text_field: "Hi my name is Josh and I live in Berlin",
},
],
});
console.log(response);
Console
POST _ml/trained_models/model2/_infer
{
"docs": [{"text_field": "Hi my name is Josh and I live in Berlin"}]
}
Console-Result
{
"inference_results": [{
"predicted_value" : "Hi my name is [Josh](PER&Josh) and I live in [Berlin](LOC&Berlin)",
"entities" : [
{
"entity" : "Josh",
"class_name" : "PER",
"class_probability" : 0.9977303419824,
"start_pos" : 14,
"end_pos" : 18
},
{
"entity" : "Berlin",
"class_name" : "LOC",
"class_probability" : 0.9992474323902818,
"start_pos" : 33,
"end_pos" : 39
}
]
}]
}
ゼロショット分類モデルは、クラスラベルを定義するための追加設定が必要です。これらのラベルはゼロショット推論設定で渡されます。
Python
resp = client.ml.infer_trained_model(
model_id="model2",
docs=[
{
"text_field": "This is a very happy person"
}
],
inference_config={
"zero_shot_classification": {
"labels": [
"glad",
"sad",
"bad",
"rad"
],
"multi_label": False
}
},
)
print(resp)
Ruby
response = client.ml.infer_trained_model(
model_id: 'model2',
body: {
docs: [
{
text_field: 'This is a very happy person'
}
],
inference_config: {
zero_shot_classification: {
labels: [
'glad',
'sad',
'bad',
'rad'
],
multi_label: false
}
}
}
)
puts response
Js
const response = await client.ml.inferTrainedModel({
model_id: "model2",
docs: [
{
text_field: "This is a very happy person",
},
],
inference_config: {
zero_shot_classification: {
labels: ["glad", "sad", "bad", "rad"],
multi_label: false,
},
},
});
console.log(response);
Console
POST _ml/trained_models/model2/_infer
{
"docs": [
{
"text_field": "This is a very happy person"
}
],
"inference_config": {
"zero_shot_classification": {
"labels": [
"glad",
"sad",
"bad",
"rad"
],
"multi_label": false
}
}
}
APIは予測されたラベルと信頼度、さらに上位クラスを返します:
Console-Result
{
"inference_results": [{
"predicted_value" : "glad",
"top_classes" : [
{
"class_name" : "glad",
"class_probability" : 0.8061155063386439,
"class_score" : 0.8061155063386439
},
{
"class_name" : "rad",
"class_probability" : 0.18218006158387956,
"class_score" : 0.18218006158387956
},
{
"class_name" : "bad",
"class_probability" : 0.006325615787634201,
"class_score" : 0.006325615787634201
},
{
"class_name" : "sad",
"class_probability" : 0.0053788162898424545,
"class_score" : 0.0053788162898424545
}
],
"prediction_probability" : 0.8061155063386439
}]
}
質問応答モデルは、回答する質問を定義するための追加設定が必要です。
Python
resp = client.ml.infer_trained_model(
model_id="model2",
docs=[
{
"text_field": "<long text to extract answer>"
}
],
inference_config={
"question_answering": {
"question": "<question to be answered>"
}
},
)
print(resp)
Ruby
response = client.ml.infer_trained_model(
model_id: 'model2',
body: {
docs: [
{
text_field: '<long text to extract answer>'
}
],
inference_config: {
question_answering: {
question: '<question to be answered>'
}
}
}
)
puts response
Js
const response = await client.ml.inferTrainedModel({
model_id: "model2",
docs: [
{
text_field: "<long text to extract answer>",
},
],
inference_config: {
question_answering: {
question: "<question to be answered>",
},
},
});
console.log(response);
Console
POST _ml/trained_models/model2/_infer
{
"docs": [
{
"text_field": "<long text to extract answer>"
}
],
"inference_config": {
"question_answering": {
"question": "<question to be answered>"
}
}
}
Console-Result
{
"predicted_value": <string subsection of the text that is the answer>,
"start_offset": <character offset in document to start>,
"end_offset": <character offset end of the answer,
"prediction_probability": <prediction score>
}
テキスト類似性モデルは、比較するために少なくとも2つのテキストシーケンスを必要とします。他のテキストシーケンスと比較するために複数の文字列を提供することが可能です:
Python
resp = client.ml.infer_trained_model(
model_id="cross-encoder__ms-marco-tinybert-l-2-v2",
docs=[
{
"text_field": "Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers."
},
{
"text_field": "New York City is famous for the Metropolitan Museum of Art."
}
],
inference_config={
"text_similarity": {
"text": "How many people live in Berlin?"
}
},
)
print(resp)
Js
const response = await client.ml.inferTrainedModel({
model_id: "cross-encoder__ms-marco-tinybert-l-2-v2",
docs: [
{
text_field:
"Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers.",
},
{
text_field: "New York City is famous for the Metropolitan Museum of Art.",
},
],
inference_config: {
text_similarity: {
text: "How many people live in Berlin?",
},
},
});
console.log(response);
Console
POST _ml/trained_models/cross-encoder__ms-marco-tinybert-l-2-v2/_infer
{
"docs":[{ "text_field": "Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers."}, {"text_field": "New York City is famous for the Metropolitan Museum of Art."}],
"inference_config": {
"text_similarity": {
"text": "How many people live in Berlin?"
}
}
}
応答には、text_similarity
.text
フィールドに提供されたテキストと比較される各文字列の予測が含まれます:
Console-Result
{
"inference_results": [
{
"predicted_value": 7.235751628875732
},
{
"predicted_value": -11.562295913696289
}
]
}
トークン化の切り捨てオプションは、APIを呼び出す際にオーバーライドできます:
Python
resp = client.ml.infer_trained_model(
model_id="model2",
docs=[
{
"text_field": "The Amazon rainforest covers most of the Amazon basin in South America"
}
],
inference_config={
"ner": {
"tokenization": {
"bert": {
"truncate": "first"
}
}
}
},
)
print(resp)
Ruby
response = client.ml.infer_trained_model(
model_id: 'model2',
body: {
docs: [
{
text_field: 'The Amazon rainforest covers most of the Amazon basin in South America'
}
],
inference_config: {
ner: {
tokenization: {
bert: {
truncate: 'first'
}
}
}
}
}
)
puts response
Js
const response = await client.ml.inferTrainedModel({
model_id: "model2",
docs: [
{
text_field:
"The Amazon rainforest covers most of the Amazon basin in South America",
},
],
inference_config: {
ner: {
tokenization: {
bert: {
truncate: "first",
},
},
},
},
});
console.log(response);
Console
POST _ml/trained_models/model2/_infer
{
"docs": [{"text_field": "The Amazon rainforest covers most of the Amazon basin in South America"}],
"inference_config": {
"ner": {
"tokenization": {
"bert": {
"truncate": "first"
}
}
}
}
}
入力がモデルの max_sequence_length
によって課せられた制限により切り捨てられた場合、is_truncated
フィールドが応答に表示されます。
コンソール-結果
{
"inference_results": [{
"predicted_value" : "The [Amazon](LOC&Amazon) rainforest covers most of the [Amazon](LOC&Amazon) basin in [South America](LOC&South+America)",
"entities" : [
{
"entity" : "Amazon",
"class_name" : "LOC",
"class_probability" : 0.9505460915724254,
"start_pos" : 4,
"end_pos" : 10
},
{
"entity" : "Amazon",
"class_name" : "LOC",
"class_probability" : 0.9969992804311777,
"start_pos" : 41,
"end_pos" : 47
}
],
"is_truncated" : true
}]
}