推論APIの作成

この機能は技術プレビュー中であり、将来のリリースで変更または削除される可能性があります。Elasticは問題を修正するために取り組みますが、技術プレビューの機能は公式GA機能のサポートSLAの対象ではありません。

推論タスクを実行するための推論エンドポイントを作成します。

  • 推論APIは、組み込みの機械学習モデル(ELSER、E5)、Elandを通じてアップロードされたモデル、Cohere、OpenAI、Mistral、Azure OpenAI、Google AI Studio、Google Vertex AI、Anthropic、またはHugging Faceなどの特定のサービスを使用することを可能にします。
  • 組み込みモデルおよびElandを通じてアップロードされたモデルについては、推論APIは訓練されたモデルを使用および管理するための代替手段を提供します。ただし、これらのモデルを使用するために推論APIを使用する予定がない場合や、非NLPモデルを使用したい場合は、機械学習訓練モデルAPIを使用してください。

リクエスト

PUT /_inference/<task_type>/<inference_id>

前提条件

  • manage_inference クラスター権限が必要です(組み込みのinference_adminロールがこの権限を付与します)

パスパラメータ

  • <inference_id>
  • (必須、文字列)推論エンドポイントの一意の識別子。
  • <task_type>
  • (必須、文字列)モデルが実行する推論タスクのタイプ。
    利用可能なタスクタイプについては、API説明セクションのサービスリストを参照してください。

説明

推論APIを使用すると、推論エンドポイントを作成し、特定の推論タスクを実行するために機械学習モデルを構成できます。

推論APIを通じて利用可能なサービスは次のとおりです。利用可能なタスクタイプはサービス名の横に表示されます。サービスの構成詳細を確認するには、リンクをクリックしてください:

ElasticsearchおよびELSERサービスは、Elasticsearchクラスター内の機械学習ノードで実行されます。他のサービスは外部プロバイダーに接続します。