トレーニング済みモデルAPI

トレーニング済みモデルを評価します。モデルは、データフレーム分析によってトレーニングされた任意の監視モデルまたはインポートされたモデルである可能性があります。

キャッシュが有効なモデルデプロイメントの場合、結果は推論キャッシュから直接返されることがあります。

リクエスト

POST _ml/trained_models/<model_id>/_infer POST _ml/trained_models/<deployment_id>/_infer

パスパラメータ

  • <model_id>
  • (オプション、文字列)トレーニング済みモデルの一意の識別子またはモデルエイリアス。

API呼び出しでmodel_idを指定した場合、モデルに複数のデプロイメントがあると、ランダムなデプロイメントが使用されます。model_idがデプロイメントのIDと一致する場合、そのデプロイメントが使用されます。

  • <deployment_id>
  • (オプション、文字列)モデルのデプロイメントの一意の識別子。

クエリパラメータ

  • timeout
  • (オプション、時間)推論結果を待つ時間の量を制御します。デフォルトは10秒です。

Request body

  • docs
  • (必須、配列) モデルに推論のために渡すオブジェクトの配列。オブジェクトは、設定されたトレーニングモデルの入力に一致するフィールドを含む必要があります。通常、NLPモデルの場合、フィールド名は text_field です。このプロパティで指定された各推論入力フィールドは、文字列の配列ではなく、単一の文字列でなければなりません。

  • inference_config

  • (オプション、オブジェクト) 推論のためのデフォルト設定。これには、regressionclassificationfill_masknerquestion_answeringtext_classificationtext_embedding または zero_shot_classification が含まれます。regression または classification の場合、基盤となる definition.trained_modeltarget_type と一致する必要があります。fill_masknerquestion_answeringtext_classification、または text_embedding の場合、model_typepytorch でなければなりません。指定されていない場合、モデルが作成されたときの inference_config が使用されます。
    inference_config のプロパティ
    • classification
    • (オプション、オブジェクト) 推論のための分類設定。
      分類推論のプロパティ
      • num_top_classes
      • (オプション、整数) 戻すトップクラス予測の数を指定します。デフォルトは0です。
      • num_top_feature_importance_values
      • (オプション、整数) ドキュメントごとの特徴重要度値の最大数を指定します。デフォルトは0で、特徴重要度の計算は行われません。
      • prediction_field_type
      • (オプション、文字列) 書き込む予測フィールドのタイプを指定します。有効な値は、stringnumberbooleanです。booleanが提供されると、1.0trueに変換され、0.0falseに変換されます。
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • top_classes_results_field
      • (オプション、文字列) トップクラスが書き込まれるフィールドを指定します。デフォルトはtop_classesです。
    • fill_mask
    • (オプション、オブジェクト) fill_mask 自然言語処理 (NLP) タスクの設定。fill_mask タスクは、fill mask アクションに最適化されたモデルで機能します。たとえば、BERTモデルの場合、次のテキストを提供できます:
      「フランスの首都は [MASK] です。」応答は、[MASK] を置き換える可能性が最も高い値を示します。この場合、最も可能性の高いトークンは paris です。
      fill_mask 推論のプロパティ
      • num_top_classes
      • (オプション、整数) マスクトークンを置き換えるために返す上位予測トークンの数。デフォルトは 0 です。
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
    • ner
    • (オプション、オブジェクト) 名前付きエンティティ認識 (NER) タスクを設定します。NERはトークン分類の特別なケースです。シーケンス内の各トークンは、提供された分類ラベルに従って分類されます。現在、NERタスクは classification_labels Inside-Outside-Beginning (IOB) 形式のラベルを必要とします。人、組織、場所、その他のカテゴリのみがサポートされています。
      ner推論のプロパティ
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
    • pass_through
    • (オプション、オブジェクト) pass_through タスクを設定します。このタスクは、推論出力に対して後処理が行われないため、デバッグに役立ち、未加工のプーリング層の結果が呼び出し元に返されます。
      pass_through推論のプロパティ
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
    • question_answering
    • (オプション、オブジェクト) 質問応答自然言語処理 (NLP) タスクを設定します。質問応答は、大規模なテキストコーパスから特定の質問に対する回答を抽出するのに役立ちます。
      質問応答推論のプロパティ
      • max_answer_length
      • (オプション、整数) 回答の最大単語数。デフォルトは 15 です。
      • num_top_classes
      • (オプション、整数) 返す上位の見つかった回答の数。デフォルトは 0 で、最も良い見つかった回答のみが返されます。
      • question
      • (必須、文字列) 回答を抽出する際に使用する質問
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
    • regression
    • (オプション、オブジェクト) 回帰推論の設定。
      回帰推論のプロパティ
      • num_top_feature_importance_values
      • (オプション、整数) ドキュメントごとの特徴重要度値の最大数を指定します。デフォルトは0で、特徴重要度の計算は行われません。
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
    • text_classification
    • (オプション、オブジェクト) テキスト分類タスク。テキスト分類は、提供されたテキストシーケンスを以前に知られているターゲットクラスに分類します。具体的な例としては、感情分析があり、テキストの感情を示す「悲しい」、「幸せ」、「怒っている」などのターゲットクラスを返します。
      テキスト分類推論のプロパティ
      • classification_labels
      • (オプション、文字列) 分類ラベルの配列。
      • num_top_classes
      • (オプション、整数) 返す上位クラス予測の数を指定します。デフォルトはすべてのクラス (-1) です。
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
    • text_embedding
    • (オブジェクト、オプション) テキスト埋め込みは、入力シーケンスを受け取り、それを数値のベクトルに変換します。これらの埋め込みは、単にトークンをキャプチャするだけでなく、意味や文脈を捉えます。これらの埋め込みは、強力な洞察のために 密なベクトル フィールドで使用できます。
      テキスト埋め込み推論のプロパティ
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
    • text_similarity
    • (オブジェクト、オプション) テキスト類似性は、入力シーケンスを受け取り、別の入力シーケンスと比較します。これは一般的にクロスエンコーディングと呼ばれます。このタスクは、別の提供されたテキスト入力と比較する際にドキュメントテキストのランク付けに役立ちます。
      テキスト類似性推論のプロパティ
      • span_score_combination_function
      • (オプション、文字列) 提供されたテキストパッセージが max_sequence_length より長い場合、結果の類似性スコアをどのように組み合わせるかを識別します。これは、truncatenone で、span が非負の数である場合にのみ適用されます。デフォルト値は max です。利用可能なオプションは:
      • max: すべてのスパンからの最大スコアが返されます。
      • mean: すべてのスパンの平均スコアが返されます。
      • text
      • (必須、文字列) これは、すべての提供されたドキュメントテキスト入力と比較するテキストです。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • with_special_tokens
        • (オプション、ブール値)特殊トークンでトークン化します。BERTスタイルのトークン化に通常含まれるトークンは:
          • [CLS]: 分類されるシーケンスの最初のトークン。
          • [SEP]: シーケンスの分離を示します。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • span
        • (オプション、整数) truncatenoneの場合、長いテキストシーケンスを推論のために分割できます。値は各サブシーケンス間のトークンの重なりを示します。
          デフォルト値は-1で、ウィンドウやスパンは発生しません。
          通常の入力がmax_sequence_lengthよりわずかに大きい場合は、単に切り捨てるのが最良かもしれません。2番目のサブシーケンスには非常に少ない情報しか含まれません。
        • with_special_tokens
        • (オプション、ブール値)true の場合、特殊トークンでトークン化します。
    • zero_shot_classification
    • (オブジェクト、オプション) ゼロショット分類タスクを設定します。ゼロショット分類は、事前に決定されたラベルなしでテキスト分類を行うことを可能にします。推論時に、分類するためのラベルを調整することが可能です。これにより、このタイプのモデルとタスクは非常に柔軟になります。
      同じラベルを一貫して分類する場合は、微調整されたテキスト分類モデルを使用する方が良いかもしれません。
      ゼロショット分類推論のプロパティ
      • labels
      • (オプション、配列) 分類するラベル。デフォルトラベルの作成時に設定でき、推論中に更新できます。
      • multi_label
      • (オプション、ブール値) 入力に対して複数の true ラベルが可能かどうかを示します。これは、複数の入力ラベルに関連する可能性のあるテキストにラベルを付ける際に便利です。デフォルトは false です。
      • results_field
      • (オプション、文字列) 推論予測を含むために受信ドキュメントに追加されるフィールド。デフォルトは predicted_value です。
      • tokenization
      • (オプション、オブジェクト) 実行するトークン化と希望する設定を示します。デフォルトのトークン化設定はbertです。有効なトークン化値は
      • bert: BERTスタイルのモデルに使用
      • mpnet: MPNetスタイルのモデルに使用
      • roberta: RoBERTaスタイルおよびBARTスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 xlm_roberta: XLMRoBERTaスタイルのモデルに使用
      • [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 bert_ja: 日本語用にトレーニングされたBERTスタイルのモデルに使用。
        トークン化のプロパティ
      • bert
      • (オプション、オブジェクト) BERTスタイルのトークン化を、含まれる設定で実行します。
        BERTのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • roberta
      • (オプション、オブジェクト) RoBERTaスタイルのトークン化を、含まれる設定で実行します。
        RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • mpnet
      • (オプション、オブジェクト) MPNetスタイルのトークン化を、含まれる設定で実行します。
        MPNetのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • xlm_roberta
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 XLMRoBERTaスタイルのトークン化は、含まれている設定で実行されます。
        XLM-RoBERTaのプロパティ
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。
      • bert_ja
      • (オプション、オブジェクト) [プレビュー] この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために作業しますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。 日本語テキストのためのBERTスタイルのトークン化は、含まれている設定で実行されます。
        BERTのプロパティ(日本語)
        • truncate
        • (オプション、文字列) トークンがmax_sequence_lengthを超えた場合の切り捨て方法を示します。デフォルト値はfirstです。
          • none: 切り捨ては行われず、推論リクエストはエラーを受け取ります。
          • first: 最初のシーケンスのみが切り捨てられます。
          • second: 2番目のシーケンスのみが切り捨てられます。シーケンスが1つだけの場合、そのシーケンスが切り捨てられます。
            zero_shot_classificationの場合、仮説シーケンスは常に2番目のシーケンスです。したがって、この場合secondを使用しないでください。

Examples

応答はモデルの種類によって異なります。

たとえば、言語識別の場合、応答は予測された言語とスコアです:

Python

  1. resp = client.ml.infer_trained_model(
  2. model_id="lang_ident_model_1",
  3. docs=[
  4. {
  5. "text": "The fool doth think he is wise, but the wise man knows himself to be a fool."
  6. }
  7. ],
  8. )
  9. print(resp)

Ruby

  1. response = client.ml.infer_trained_model(
  2. model_id: 'lang_ident_model_1',
  3. body: {
  4. docs: [
  5. {
  6. text: 'The fool doth think he is wise, but the wise man knows himself to be a fool.'
  7. }
  8. ]
  9. }
  10. )
  11. puts response

Js

  1. const response = await client.ml.inferTrainedModel({
  2. model_id: "lang_ident_model_1",
  3. docs: [
  4. {
  5. text: "The fool doth think he is wise, but the wise man knows himself to be a fool.",
  6. },
  7. ],
  8. });
  9. console.log(response);

Console

  1. POST _ml/trained_models/lang_ident_model_1/_infer
  2. {
  3. "docs":[{"text": "The fool doth think he is wise, but the wise man knows himself to be a fool."}]
  4. }

ここでは、高い確率で英語を予測した結果を示します。

Console-Result

  1. {
  2. "inference_results": [
  3. {
  4. "predicted_value": "en",
  5. "prediction_probability": 0.9999658805366392,
  6. "prediction_score": 0.9999658805366392
  7. }
  8. ]
  9. }

テキスト分類モデルの場合、応答はスコアと予測された分類です。

例えば:

Python

  1. resp = client.ml.infer_trained_model(
  2. model_id="model2",
  3. docs=[
  4. {
  5. "text_field": "The movie was awesome!!"
  6. }
  7. ],
  8. )
  9. print(resp)

Ruby

  1. response = client.ml.infer_trained_model(
  2. model_id: 'model2',
  3. body: {
  4. docs: [
  5. {
  6. text_field: 'The movie was awesome!!'
  7. }
  8. ]
  9. }
  10. )
  11. puts response

Js

  1. const response = await client.ml.inferTrainedModel({
  2. model_id: "model2",
  3. docs: [
  4. {
  5. text_field: "The movie was awesome!!",
  6. },
  7. ],
  8. });
  9. console.log(response);

Console

  1. POST _ml/trained_models/model2/_infer
  2. {
  3. "docs": [{"text_field": "The movie was awesome!!"}]
  4. }

APIは予測されたラベルと信頼度を返します。

Console-Result

  1. {
  2. "inference_results": [{
  3. "predicted_value" : "POSITIVE",
  4. "prediction_probability" : 0.9998667964092964
  5. }]
  6. }

名前付きエンティティ認識 (NER) モデルの場合、応答には注釈付きテキスト出力と認識されたエンティティが含まれます。

Python

  1. resp = client.ml.infer_trained_model(
  2. model_id="model2",
  3. docs=[
  4. {
  5. "text_field": "Hi my name is Josh and I live in Berlin"
  6. }
  7. ],
  8. )
  9. print(resp)

Ruby

  1. response = client.ml.infer_trained_model(
  2. model_id: 'model2',
  3. body: {
  4. docs: [
  5. {
  6. text_field: 'Hi my name is Josh and I live in Berlin'
  7. }
  8. ]
  9. }
  10. )
  11. puts response

Js

  1. const response = await client.ml.inferTrainedModel({
  2. model_id: "model2",
  3. docs: [
  4. {
  5. text_field: "Hi my name is Josh and I live in Berlin",
  6. },
  7. ],
  8. });
  9. console.log(response);

Console

  1. POST _ml/trained_models/model2/_infer
  2. {
  3. "docs": [{"text_field": "Hi my name is Josh and I live in Berlin"}]
  4. }

この場合、APIは次のように返します:

Console-Result

  1. {
  2. "inference_results": [{
  3. "predicted_value" : "Hi my name is [Josh](PER&Josh) and I live in [Berlin](LOC&Berlin)",
  4. "entities" : [
  5. {
  6. "entity" : "Josh",
  7. "class_name" : "PER",
  8. "class_probability" : 0.9977303419824,
  9. "start_pos" : 14,
  10. "end_pos" : 18
  11. },
  12. {
  13. "entity" : "Berlin",
  14. "class_name" : "LOC",
  15. "class_probability" : 0.9992474323902818,
  16. "start_pos" : 33,
  17. "end_pos" : 39
  18. }
  19. ]
  20. }]
  21. }

ゼロショット分類モデルは、クラスラベルを定義するための追加設定が必要です。これらのラベルはゼロショット推論設定で渡されます。

Python

  1. resp = client.ml.infer_trained_model(
  2. model_id="model2",
  3. docs=[
  4. {
  5. "text_field": "This is a very happy person"
  6. }
  7. ],
  8. inference_config={
  9. "zero_shot_classification": {
  10. "labels": [
  11. "glad",
  12. "sad",
  13. "bad",
  14. "rad"
  15. ],
  16. "multi_label": False
  17. }
  18. },
  19. )
  20. print(resp)

Ruby

  1. response = client.ml.infer_trained_model(
  2. model_id: 'model2',
  3. body: {
  4. docs: [
  5. {
  6. text_field: 'This is a very happy person'
  7. }
  8. ],
  9. inference_config: {
  10. zero_shot_classification: {
  11. labels: [
  12. 'glad',
  13. 'sad',
  14. 'bad',
  15. 'rad'
  16. ],
  17. multi_label: false
  18. }
  19. }
  20. }
  21. )
  22. puts response

Js

  1. const response = await client.ml.inferTrainedModel({
  2. model_id: "model2",
  3. docs: [
  4. {
  5. text_field: "This is a very happy person",
  6. },
  7. ],
  8. inference_config: {
  9. zero_shot_classification: {
  10. labels: ["glad", "sad", "bad", "rad"],
  11. multi_label: false,
  12. },
  13. },
  14. });
  15. console.log(response);

Console

  1. POST _ml/trained_models/model2/_infer
  2. {
  3. "docs": [
  4. {
  5. "text_field": "This is a very happy person"
  6. }
  7. ],
  8. "inference_config": {
  9. "zero_shot_classification": {
  10. "labels": [
  11. "glad",
  12. "sad",
  13. "bad",
  14. "rad"
  15. ],
  16. "multi_label": false
  17. }
  18. }
  19. }

APIは予測されたラベルと信頼度、さらに上位クラスを返します:

Console-Result

  1. {
  2. "inference_results": [{
  3. "predicted_value" : "glad",
  4. "top_classes" : [
  5. {
  6. "class_name" : "glad",
  7. "class_probability" : 0.8061155063386439,
  8. "class_score" : 0.8061155063386439
  9. },
  10. {
  11. "class_name" : "rad",
  12. "class_probability" : 0.18218006158387956,
  13. "class_score" : 0.18218006158387956
  14. },
  15. {
  16. "class_name" : "bad",
  17. "class_probability" : 0.006325615787634201,
  18. "class_score" : 0.006325615787634201
  19. },
  20. {
  21. "class_name" : "sad",
  22. "class_probability" : 0.0053788162898424545,
  23. "class_score" : 0.0053788162898424545
  24. }
  25. ],
  26. "prediction_probability" : 0.8061155063386439
  27. }]
  28. }

質問応答モデルは、回答する質問を定義するための追加設定が必要です。

Python

  1. resp = client.ml.infer_trained_model(
  2. model_id="model2",
  3. docs=[
  4. {
  5. "text_field": "<long text to extract answer>"
  6. }
  7. ],
  8. inference_config={
  9. "question_answering": {
  10. "question": "<question to be answered>"
  11. }
  12. },
  13. )
  14. print(resp)

Ruby

  1. response = client.ml.infer_trained_model(
  2. model_id: 'model2',
  3. body: {
  4. docs: [
  5. {
  6. text_field: '<long text to extract answer>'
  7. }
  8. ],
  9. inference_config: {
  10. question_answering: {
  11. question: '<question to be answered>'
  12. }
  13. }
  14. }
  15. )
  16. puts response

Js

  1. const response = await client.ml.inferTrainedModel({
  2. model_id: "model2",
  3. docs: [
  4. {
  5. text_field: "<long text to extract answer>",
  6. },
  7. ],
  8. inference_config: {
  9. question_answering: {
  10. question: "<question to be answered>",
  11. },
  12. },
  13. });
  14. console.log(response);

Console

  1. POST _ml/trained_models/model2/_infer
  2. {
  3. "docs": [
  4. {
  5. "text_field": "<long text to extract answer>"
  6. }
  7. ],
  8. "inference_config": {
  9. "question_answering": {
  10. "question": "<question to be answered>"
  11. }
  12. }
  13. }

APIは次のような応答を返します:

Console-Result

  1. {
  2. "predicted_value": <string subsection of the text that is the answer>,
  3. "start_offset": <character offset in document to start>,
  4. "end_offset": <character offset end of the answer,
  5. "prediction_probability": <prediction score>
  6. }

テキスト類似性モデルは、比較するために少なくとも2つのテキストシーケンスを必要とします。他のテキストシーケンスと比較するために複数の文字列を提供することが可能です:

Python

  1. resp = client.ml.infer_trained_model(
  2. model_id="cross-encoder__ms-marco-tinybert-l-2-v2",
  3. docs=[
  4. {
  5. "text_field": "Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers."
  6. },
  7. {
  8. "text_field": "New York City is famous for the Metropolitan Museum of Art."
  9. }
  10. ],
  11. inference_config={
  12. "text_similarity": {
  13. "text": "How many people live in Berlin?"
  14. }
  15. },
  16. )
  17. print(resp)

Js

  1. const response = await client.ml.inferTrainedModel({
  2. model_id: "cross-encoder__ms-marco-tinybert-l-2-v2",
  3. docs: [
  4. {
  5. text_field:
  6. "Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers.",
  7. },
  8. {
  9. text_field: "New York City is famous for the Metropolitan Museum of Art.",
  10. },
  11. ],
  12. inference_config: {
  13. text_similarity: {
  14. text: "How many people live in Berlin?",
  15. },
  16. },
  17. });
  18. console.log(response);

Console

  1. POST _ml/trained_models/cross-encoder__ms-marco-tinybert-l-2-v2/_infer
  2. {
  3. "docs":[{ "text_field": "Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers."}, {"text_field": "New York City is famous for the Metropolitan Museum of Art."}],
  4. "inference_config": {
  5. "text_similarity": {
  6. "text": "How many people live in Berlin?"
  7. }
  8. }
  9. }

応答には、text_similarity.text フィールドに提供されたテキストと比較される各文字列の予測が含まれます:

Console-Result

  1. {
  2. "inference_results": [
  3. {
  4. "predicted_value": 7.235751628875732
  5. },
  6. {
  7. "predicted_value": -11.562295913696289
  8. }
  9. ]
  10. }

トークン化の切り捨てオプションは、APIを呼び出す際にオーバーライドできます:

Python

  1. resp = client.ml.infer_trained_model(
  2. model_id="model2",
  3. docs=[
  4. {
  5. "text_field": "The Amazon rainforest covers most of the Amazon basin in South America"
  6. }
  7. ],
  8. inference_config={
  9. "ner": {
  10. "tokenization": {
  11. "bert": {
  12. "truncate": "first"
  13. }
  14. }
  15. }
  16. },
  17. )
  18. print(resp)

Ruby

  1. response = client.ml.infer_trained_model(
  2. model_id: 'model2',
  3. body: {
  4. docs: [
  5. {
  6. text_field: 'The Amazon rainforest covers most of the Amazon basin in South America'
  7. }
  8. ],
  9. inference_config: {
  10. ner: {
  11. tokenization: {
  12. bert: {
  13. truncate: 'first'
  14. }
  15. }
  16. }
  17. }
  18. }
  19. )
  20. puts response

Js

  1. const response = await client.ml.inferTrainedModel({
  2. model_id: "model2",
  3. docs: [
  4. {
  5. text_field:
  6. "The Amazon rainforest covers most of the Amazon basin in South America",
  7. },
  8. ],
  9. inference_config: {
  10. ner: {
  11. tokenization: {
  12. bert: {
  13. truncate: "first",
  14. },
  15. },
  16. },
  17. },
  18. });
  19. console.log(response);

Console

  1. POST _ml/trained_models/model2/_infer
  2. {
  3. "docs": [{"text_field": "The Amazon rainforest covers most of the Amazon basin in South America"}],
  4. "inference_config": {
  5. "ner": {
  6. "tokenization": {
  7. "bert": {
  8. "truncate": "first"
  9. }
  10. }
  11. }
  12. }
  13. }

入力がモデルの max_sequence_length によって課せられた制限により切り捨てられた場合、is_truncated フィールドが応答に表示されます。

コンソール-結果

  1. {
  2. "inference_results": [{
  3. "predicted_value" : "The [Amazon](LOC&Amazon) rainforest covers most of the [Amazon](LOC&Amazon) basin in [South America](LOC&South+America)",
  4. "entities" : [
  5. {
  6. "entity" : "Amazon",
  7. "class_name" : "LOC",
  8. "class_probability" : 0.9505460915724254,
  9. "start_pos" : 4,
  10. "end_pos" : 10
  11. },
  12. {
  13. "entity" : "Amazon",
  14. "class_name" : "LOC",
  15. "class_probability" : 0.9969992804311777,
  16. "start_pos" : 41,
  17. "end_pos" : 47
  18. }
  19. ],
  20. "is_truncated" : true
  21. }]
  22. }