cat anomaly detectors API

cat API は、コマンドラインまたは Kibana コンソールを使用して人間が消費することを意図しています。アプリケーションによる使用は意図されていません。アプリケーションでの使用には、異常検出ジョブ統計 API を使用してください。

異常検出ジョブに関する設定と使用情報を返します。

Request

GET /_cat/ml/anomaly_detectors/<job_id>

GET /_cat/ml/anomaly_detectors

Prerequisites

  • Elasticsearch のセキュリティ機能が有効になっている場合、この API を使用するには monitor_mlmonitormanage_ml、または manage クラスター権限が必要です。セキュリティ権限 および 機械学習セキュリティ権限 を参照してください。

Description

この API は最大 10,000 ジョブを返します。

異常検出に関する詳細情報は、異常の検出 を参照してください。

Path parameters

  • <job_id>
  • (オプション、文字列)異常検出ジョブの識別子。

Query parameters

  • allow_no_match
  • (オプション、Boolean)リクエスト時の動作を指定します:
    • ワイルドカード式を含み、一致するジョブがない場合。
    • _all 文字列を含むか、識別子がない場合、一致がない場合。
    • ワイルドカード式を含み、一部の一致のみがある場合。
      デフォルト値は true で、一致がない場合は空の jobs 配列を返し、一部の一致がある場合は結果のサブセットを返します。このパラメータが false の場合、一致がないか一部の一致のみがある場合、リクエストは 404 ステータスコードを返します。
  • bytes
  • (オプション、バイトサイズ単位)バイト値を表示するために使用される単位。
  • format
  • (オプション、文字列)HTTP アクセプトヘッダー の短縮版。 有効な値には JSON、YAML などが含まれます。
  • h
  • (オプション、文字列)表示する列名のカンマ区切りリスト。
    どの列を含めるか指定しない場合、API はデフォルトの列を返します。1 つ以上の列を明示的に指定した場合、指定された列のみを返します。
    有効な列は:
    • assignment_explanationae
    • 開いている異常検出ジョブのみ、ジョブを実行するノードの選択に関するメッセージを含みます。
    • buckets.countbcbucketsCount
    • (デフォルト)ジョブによって生成されたバケット結果の数。
    • buckets.time.exp_avgbteabucketsTimeExpAvg
    • バケット処理時間のすべての指数移動平均、ミリ秒単位。
    • buckets.time.exp_avg_hourbteahbucketsTimeExpAvgHour
    • 1 時間の時間ウィンドウで計算されたバケット処理時間の指数加重移動平均、ミリ秒単位。
    • buckets.time.maxbtmaxbucketsTimeMax
    • すべてのバケット処理時間の最大値、ミリ秒単位。
    • buckets.time.minbtminbucketsTimeMin
    • すべてのバケット処理時間の最小値、ミリ秒単位。
    • buckets.time.totalbttbucketsTimeTotal
    • すべてのバケット処理時間の合計、ミリ秒単位。
    • data.bucketsdbdataBuckets
    • 処理されたバケットの数。
    • data.earliest_recordderdataEarliestRecord
    • 最も早い時系列入力ドキュメントのタイムスタンプ。
    • data.empty_bucketsdebdataEmptyBuckets
    • データを含まないバケットの数。データに多くの空のバケットが含まれている場合は、bucket_span を増やすか、meannon_null_sum、または non_zero_count のようなデータのギャップに耐性のある関数を使用することを検討してください。
    • data.input_bytesdibdataInputBytes
    • 異常検出ジョブに投稿された入力データのバイト数。
    • data.input_fieldsdifdataInputFields
    • 異常検出ジョブに投稿された入力ドキュメントのフィールドの合計数。このカウントには、分析に使用されないフィールドが含まれます。ただし、データフィードを使用している場合、取得したドキュメントから必要なフィールドのみを抽出してジョブに投稿します。
    • data.input_recordsdirdataInputRecords
    • 異常検出ジョブに投稿された入力ドキュメントの数。
    • data.invalid_datesdiddataInvalidDates
    • 日付フィールドが欠落しているか、解析できない日付の入力ドキュメントの数。
    • data.lastdldataLast
    • サーバー時間に基づいてデータが最後に分析されたタイムスタンプ。
    • data.last_empty_bucketdlebdataLastEmptyBucket
    • データを含まない最後のバケットのタイムスタンプ。
    • data.last_sparse_bucketdlsbdataLastSparseBucket
    • スパースと見なされた最後のバケットのタイムスタンプ。
    • data.latest_recorddlrdataLatestRecord
    • 最も最近の時系列入力ドキュメントのタイムスタンプ。
    • data.missing_fieldsdmfdataMissingFields
    • 異常検出ジョブが分析するように設定されているフィールドが欠落している入力ドキュメントの数。欠落フィールドを持つ入力ドキュメントも処理されます。すべてのフィールドが欠落しているわけではない可能性があるためです。
      データフィードを使用している場合や、JSON 形式でジョブにデータを投稿している場合、高い missing_field_count は必ずしもデータの問題を示すものではありません。必ずしも懸念の原因ではありません。
    • data.out_of_order_timestampsdootdataOutOfOrderTimestamps
    • 現在の異常検出バケットのオフセットの開始前にタイムスタンプがある入力ドキュメントの数。この情報は、post data API を使用して異常検出ジョブにデータを提供する場合にのみ適用されます。これらの順序が逆のドキュメントは破棄されます。ジョブは時系列データが昇順の時系列順であることを要求するためです。
    • data.processed_fieldsdpfdataProcessedFields
    • 異常検出ジョブによって処理されたすべてのドキュメントのフィールドの合計数。このカウントには、検出器設定オブジェクトで指定されたフィールドのみが含まれます。タイムスタンプはこのカウントに含まれません。
    • data.processed_recordsdprdataProcessedRecords
    • (デフォルト)異常検出ジョブによって処理された入力ドキュメントの数。この値には、欠落フィールドを持つドキュメントが含まれます。なぜなら、それらも分析されるからです。データフィードを使用し、検索クエリに集約がある場合、processed_record_count は処理された集約結果の数であり、Elasticsearch ドキュメントの数ではありません。
    • data.sparse_bucketsdsbdataSparseBuckets
    • 期待されるデータポイントの数と比較して、少ないデータポイントを含むバケットの数。データに多くのスパースバケットが含まれている場合は、より長い bucket_span を使用することを検討してください。
    • forecasts.memory.avgfmavgforecastsMemoryAvg
    • 異常検出ジョブに関連する予測の平均メモリ使用量(バイト単位)。
    • forecasts.memory.maxfmmaxforecastsMemoryMax
    • 異常検出ジョブに関連する予測の最大メモリ使用量(バイト単位)。
    • forecasts.memory.minfmminforecastsMemoryMin
    • 異常検出ジョブに関連する予測の最小メモリ使用量(バイト単位)。
    • forecasts.memory.totalfmtforecastsMemoryTotal
    • 異常検出ジョブに関連する予測の合計メモリ使用量(バイト単位)。
    • forecasts.records.avgfravgforecastsRecordsAvg
    • 異常検出ジョブに関連する予測のために書き込まれた model_forecast ドキュメントの平均数。
    • forecasts.records.maxfrmaxforecastsRecordsMax
    • 異常検出ジョブに関連する予測のために書き込まれた model_forecast ドキュメントの最大数。
    • forecasts.records.minfrminforecastsRecordsMin
    • 異常検出ジョブに関連する予測のために書き込まれた model_forecast ドキュメントの最小数。
    • forecasts.records.totalfrtforecastsRecordsTotal
    • 異常検出ジョブに関連する予測のために書き込まれた model_forecast ドキュメントの合計数。
    • forecasts.time.avgftavgforecastsTimeAvg
    • 異常検出ジョブに関連する予測の平均実行時間(ミリ秒単位)。
    • forecasts.time.maxftmaxforecastsTimeMax
    • 異常検出ジョブに関連する予測の最大実行時間(ミリ秒単位)。
    • forecasts.time.minftminforecastsTimeMin
    • 異常検出ジョブに関連する予測の最小実行時間(ミリ秒単位)。
    • forecasts.time.totalfttforecastsTimeTotal
    • 異常検出ジョブに関連する予測の合計実行時間(ミリ秒単位)。
    • forecasts.totalftforecastsTotal
    • (デフォルト)現在利用可能な個々の予測の数。1 以上の値は、予測が存在することを示します。
    • id
    • (デフォルト)異常検出ジョブの識別子。
    • model.bucket_allocation_failuresmbafmodelBucketAllocationFailures
    • 新しいエンティティが十分なモデルメモリのために処理されなかったバケットの数。この状況は、hard_limit: memory_status プロパティ値でも示されます。
    • model.by_fieldsmbfmodelByFields
    • モデルによって分析された by フィールド値の数。この値は、ジョブ内のすべての検出器に対して累積されます。
    • model.bytesmbmodelBytes
    • (デフォルト)モデルによって使用されるメモリのバイト数。この値は、モデルが永続化されてからの最大値です。ジョブが閉じられている場合、この値は最新のサイズを示します。
    • model.bytes_exceededmbemodelBytesExceeded
    • 最後の割り当て失敗時のメモリ使用量の高い制限を超えたバイト数。
    • model.categorization_statusmcsmodelCategorizationStatus
    • ジョブのカテゴリ化のステータス。次のいずれかの値を含みます:
      • ok: カテゴリ化は適切に機能しています(またはまったく使用されていません)。
      • warn: カテゴリ化は、入力データがカテゴリ化に不適切であることを示唆するカテゴリの分布を検出しています。問題は、カテゴリが 1 つしかない、90% 以上のカテゴリが希少である、カテゴリの数がカテゴリ化されたドキュメントの数の 50% を超える、頻繁に一致するカテゴリがない、または 50% 以上のカテゴリが死んでいることです。
    • model.categorized_doc_countmcdcmodelCategorizedDocCount
    • フィールドがカテゴリ化されたドキュメントの数。
    • model.dead_category_countmdccmodelDeadCategoryCount
    • カテゴリ化によって作成されたカテゴリの数。これは、別のカテゴリの定義によって死んだカテゴリのスーパーセットとなるため、再度割り当てられることはありません。(死んだカテゴリは、カテゴリ化に事前トレーニングがないための副作用です。)
    • model.failed_category_countmdccmodelFailedCategoryCount
    • カテゴリ化が新しいカテゴリを作成したいが、ジョブが model_memory_limit に達したためにできなかった回数。このカウントは、作成に失敗した特定のカテゴリを追跡しません。したがって、この値を使用して見逃されたユニークなカテゴリの数を特定することはできません。
    • model.frequent_category_countmfccmodelFrequentCategoryCount
    • カテゴリ化されたドキュメントの 1% を超えるカテゴリの数。
    • model.log_timemltmodelLogTime
    • モデル統計が収集されたタイムスタンプ、サーバー時間に基づく。
    • model.memory_limitmmlmodelMemoryLimit
    • モデルメモリ使用量の上限、増加する値でチェックされます。
    • model.memory_statusmmsmodelMemoryStatus
    • (デフォルト)数学モデルのステータス。次のいずれかの値を持つことができます:
      • ok: モデルは設定された値を下回っています。
      • soft_limit: モデルは設定されたメモリ制限の 60% を超えるメモリを使用しており、古い未使用のモデルはスペースを解放するために剪定されます。さらに、カテゴリ化ジョブでは、これ以上のカテゴリの例は保存されません。
      • hard_limit: モデルは設定されたメモリ制限を超えるスペースを使用しました。その結果、すべての受信データが処理されませんでした。
    • model.output_memory_allocator_bytesmomabmodelOutputMemoryAllocatorBytes
    • 異常検出ジョブドキュメントを出力するために使用されるメモリの量(バイト単位)。
    • model.over_fieldsmofmodelOverFields
    • モデルによって分析された over フィールド値の数。この値は、ジョブ内のすべての検出器に対して累積されます。
    • model.partition_fieldsmpfmodelPartitionFields
    • モデルによって分析された partition フィールド値の数。この値は、ジョブ内のすべての検出器に対して累積されます。
    • model.rare_category_countmrccmodelRareCategoryCount
    • 1 つのカテゴリ化されたドキュメントに一致するカテゴリの数。
    • model.timestampmtmodelTimestamp
    • モデル統計が収集された最後のレコードのタイムスタンプ。
    • model.total_category_countmtccmodelTotalCategoryCount
    • カテゴリ化によって作成されたカテゴリの数。
    • node.addressnanodeAddress
    • ノードのネットワークアドレス。
      ジョブを実行するノードのプロパティが含まれます。この情報は、オープンジョブに対してのみ利用可能です。
    • node.ephemeral_idnenodeEphemeralId
    • ノードのエフェメラル ID。
      ジョブを実行するノードのプロパティが含まれます。この情報は、オープンジョブに対してのみ利用可能です。
    • node.idninodeId
    • ノードの一意の識別子。
      ジョブを実行するノードのプロパティが含まれます。この情報は、オープンジョブに対してのみ利用可能です。
    • node.namennnodeName
    • ノード名。
      ジョブを実行するノードのプロパティが含まれます。この情報は、オープンジョブに対してのみ利用可能です。
    • opened_timeot
    • 開いているジョブのみ、ジョブが開いている経過時間。
    • states
    • (デフォルト)異常検出ジョブのステータス。次のいずれかの値を持つことができます:
      • closed: ジョブは正常に終了し、モデル状態が永続化されました。ジョブは、さらにデータを受け入れる前に開かれる必要があります。
      • closing: ジョブのクローズアクションが進行中で、まだ完了していません。クローズ中のジョブは、さらにデータを受け入れることができません。
      • failed: ジョブはエラーにより正常に終了しませんでした。この状況は、無効な入力データ、分析中の致命的エラー、または Linux のメモリ不足 (OOM) キラーによってプロセスが強制終了されるなどの外部の相互作用によって発生する可能性があります。ジョブが取り返しのつかない失敗をした場合、強制的に閉じてから削除する必要があります。データフィードを修正できる場合、ジョブを閉じてから再オープンできます。
      • opened: ジョブはデータを受け取り、処理するために利用可能です。
      • opening: ジョブのオープンアクションが進行中で、まだ完了していません。
  • help
  • (オプション、Boolean)true の場合、レスポンスにはヘルプ情報が含まれます。デフォルトは false です。
  • s
  • (オプション、文字列)レスポンスをソートするために使用される列名または列エイリアスのカンマ区切りリスト。
  • time
  • (オプション、時間単位)時間値を表示するために使用される単位。
  • v
  • (オプション、Boolean)true の場合、レスポンスには列見出しが含まれます。デフォルトは false です。

Examples

Python

  1. resp = client.cat.ml_jobs(
  2. h="id,s,dpr,mb",
  3. v=True,
  4. )
  5. print(resp)

Ruby

  1. response = client.cat.ml_jobs(
  2. h: 'id,s,dpr,mb',
  3. v: true
  4. )
  5. puts response

Js

  1. const response = await client.cat.mlJobs({
  2. h: "id,s,dpr,mb",
  3. v: "true",
  4. });
  5. console.log(response);

Console

  1. GET _cat/ml/anomaly_detectors?h=id,s,dpr,mb&v=true

Console-Result

  1. id s dpr mb
  2. high_sum_total_sales closed 14022 1.5mb
  3. low_request_rate closed 1216 40.5kb
  4. response_code_rates closed 28146 132.7kb
  5. url_scanning closed 28146 501.6kb