S3リポジトリ
AWS S3をスナップショット/復元のリポジトリとして使用できます。
AWS上でのElasticsearchのホスティングソリューションをお探しの場合は、
https://www.elastic.co/cloud/をご覧ください。
はじめに
S3リポジトリを登録するには、リポジトリを作成する際にタイプをs3
として指定します。リポジトリは、認証のためにデフォルトでECS IAMロールの資格情報を使用します。また、認証のためにKubernetesサービスアカウントを使用することもできます。
唯一の必須設定はバケット名です:
Python
resp = client.snapshot.create_repository(
name="my_s3_repository",
repository={
"type": "s3",
"settings": {
"bucket": "my-bucket"
}
},
)
print(resp)
Js
const response = await client.snapshot.createRepository({
name: "my_s3_repository",
repository: {
type: "s3",
settings: {
bucket: "my-bucket",
},
},
});
console.log(response);
コンソール
PUT _snapshot/my_s3_repository
{
"type": "s3",
"settings": {
"bucket": "my-bucket"
}
}
クライアント設定
S3に接続するために使用するクライアントには、いくつかの設定があります。設定はs3.client.CLIENT_NAME.SETTING_NAME
の形式を持ちます。デフォルトでは、s3
リポジトリはdefault
という名前のクライアントを使用しますが、これはリポジトリ設定client
を使用して変更できます。例えば:
Python
resp = client.snapshot.create_repository(
name="my_s3_repository",
repository={
"type": "s3",
"settings": {
"bucket": "my-bucket",
"client": "my-alternate-client"
}
},
)
print(resp)
Js
const response = await client.snapshot.createRepository({
name: "my_s3_repository",
repository: {
type: "s3",
settings: {
bucket: "my-bucket",
client: "my-alternate-client",
},
},
});
console.log(response);
コンソール
PUT _snapshot/my_s3_repository
{
"type": "s3",
"settings": {
"bucket": "my-bucket",
"client": "my-alternate-client"
}
}
ほとんどのクライアント設定は、セキュア設定を除いてelasticsearch.yml
構成ファイルに追加できます。セキュア設定はElasticsearchキーストアに追加します。Elasticsearchキーストアの作成と更新に関する詳細は、セキュア設定を参照してください。
例えば、S3にアクセスするために特定の資格情報を使用したい場合は、次のコマンドを実行してこれらの資格情報をキーストアに追加します。
bin/elasticsearch-keystore add s3.client.default.access_key
bin/elasticsearch-keystore add s3.client.default.secret_key
# セッショントークンはオプションであり、次のコマンドは必要ない場合があります
bin/elasticsearch-keystore add s3.client.default.session_token
代わりに、インスタンスロールまたはコンテナロールを使用してS3にアクセスしたい場合は、これらの設定を未設定のままにする必要があります。特定の資格情報の使用からインスタンスロールまたはコンテナロールのデフォルトに切り替えるには、次のようにキーストアからこれらの設定を削除します:
bin/elasticsearch-keystore remove s3.client.default.access_key
bin/elasticsearch-keystore remove s3.client.default.secret_key
# セッショントークンはオプションであり、次のコマンドは必要ない場合があります
bin/elasticsearch-keystore remove s3.client.default.session_token
すべてのクライアントセキュア設定はこのリポジトリタイプでリロード可能です。これらの設定をノードが起動する前に定義するか、設定が定義された後にノードリロードセキュア設定APIを呼び出して、実行中のノードに適用できます。
設定をリロードした後、スナップショットコンテンツを転送するために使用される内部s3
クライアントは、キーストアから最新の設定を利用します。既存のs3
リポジトリと新しく作成されたリポジトリは、キーストアに保存された新しい値を取得します。
進行中のスナップショット/復元タスクは、クライアントのセキュア設定のリロードによって中断されることはありません。タスクは、操作が開始されたときに構築されたクライアントを使用して完了します。
以下のリストには、利用可能なクライアント設定が含まれています。キーストアに保存する必要があるものは「セキュア」とマークされており、リロード可能です。他の設定はelasticsearch.yml
ファイルに属します。
access_key
(セキュア, リロード可能)- S3アクセスキー。設定されている場合、
secret_key
設定も指定する必要があります。未設定の場合、クライアントはインスタンスまたはコンテナロールを使用します。 secret_key
(セキュア, リロード可能)- S3シークレットキー。設定されている場合、
access_key
設定も指定する必要があります。 session_token
(セキュア, リロード可能)- S3セッショントークン。設定されている場合、
access_key
およびsecret_key
設定も指定する必要があります。 endpoint
- 接続するS3サービスエンドポイント。デフォルトは
s3.amazonaws.com
ですが、AWSドキュメントには代替のS3エンドポイントがリストされています。S3互換サービスを使用している場合は、サービスのエンドポイントに設定する必要があります。 protocol
- S3に接続するために使用するプロトコル。有効な値は
http
またはhttps
のいずれかです。デフォルトはhttps
です。HTTPSを使用する場合、このリポジトリタイプはJVM全体のトラストストアを使用してリポジトリの証明書チェーンを検証します。JVMのkeytool
ツールを使用して、ルート証明書機関がこのトラストストアに含まれていることを確認してください。S3リポジトリ用のカスタム証明書機関を持っている場合、ElasticsearchのバンドルJDKを使用している場合は、ElasticsearchをアップグレードするたびにCA証明書を再インストールする必要があります。 proxy.host
- S3を介して接続するためのプロキシのホスト名。
proxy.port
- S3を介して接続するためのプロキシのポート。
proxy.scheme
- S3へのプロキシ接続に使用するスキーム。有効な値は
http
またはhttps
のいずれかです。デフォルトはhttp
です。この設定により、プロキシサーバーとの通信に使用されるプロトコルを指定できます。 proxy.username
(セキュア, リロード可能)proxy.host
に接続するためのユーザー名。proxy.password
(セキュア, リロード可能)proxy.host
に接続するためのパスワード。read_timeout
- (時間値) Elasticsearchがリポジトリへの確立されたオープン接続を介して次のバイトを受信するのを待つ最大時間。デフォルト値は50秒です。
max_connections
- S3への同時接続の最大数。デフォルト値は
50
です。 max_retries
- S3リクエストが失敗したときに使用する再試行の回数。デフォルト値は
3
です。 use_throttle_retries
- 再試行を制限するかどうか(つまり、バックオフする必要があるか)。
true
またはfalse
である必要があります。デフォルトはtrue
です。 path_style_access
パススタイルアクセスパターンの使用を強制するかどうか。
true
の場合、パススタイルアクセスパターンが使用されます。false
の場合、アクセスパターンはAWS Java SDKによって自動的に決定されます(詳細はAWSドキュメントを参照)。デフォルトはfalse
です。
バージョン7.0
、7.1
、7.2
、および7.3
では、すべてのバケット操作は現在非推奨のパススタイルアクセスパターンを使用していました。デプロイメントがパススタイルアクセスパターンを必要とする場合、アップグレード時にこの設定をtrue
に設定する必要があります。disable_chunked_encoding
- チャンクエンコーディングを無効にするかどうか。
false
の場合、チャンクエンコーディングが有効になり、適切な場合に使用されます。true
の場合、チャンクエンコーディングは無効になり、使用されません。これにより、スナップショット操作がより多くのリソースを消費し、完了に時間がかかる可能性があります。チャンクエンコーディングをサポートしていないストレージサービスを使用している場合にのみtrue
に設定する必要があります。詳細はAWS Java SDKドキュメントを参照してください。デフォルトはfalse
です。 region
- 使用する署名リージョンを指定できます。この設定を手動で指定する必要はほとんどのユースケースではありません。一般的に、SDKは使用する署名リージョンを正しく推測します。これは、v4署名を必要とし、デフォルトの
us-east-1
以外のリージョンを使用するS3互換APIをサポートするための専門的な設定と見なされるべきです。デフォルトは空の文字列で、SDKは自動的に正しい署名リージョンを決定しようとします。 signer_override
- S3クライアントによるリクエスト署名に使用する署名アルゴリズムの名前を指定できます。この設定を指定する必要はほとんどのユースケースではありません。これは、SDKが自動的に決定する署名アルゴリズムをサポートしないS3互換APIをサポートするための専門的な設定と見なされるべきです。詳細はAWS Java SDKドキュメントを参照してください。デフォルトは空の文字列で、署名アルゴリズムのオーバーライドは使用されません。
リポジトリ設定
#### Python
``````python
resp = client.snapshot.create_repository(
name="my_s3_repository",
repository={
"type": "s3",
"settings": {
"bucket": "my-bucket",
"another_setting": "setting-value"
}
},
)
print(resp)
`
Js
const response = await client.snapshot.createRepository({
name: "my_s3_repository",
repository: {
type: "s3",
settings: {
bucket: "my-bucket",
another_setting: "setting-value",
},
},
});
console.log(response);
コンソール
PUT _snapshot/my_s3_repository
{
"type": "s3",
"settings": {
"bucket": "my-bucket",
"another_setting": "setting-value"
}
}
次の設定がサポートされています:
bucket
- (必須) スナップショットに使用するS3バケットの名前。
バケット名は、AmazonのS3バケット命名規則に従う必要があります。 client
- S3に接続するために使用するS3クライアントの名前。デフォルトは
default
です。 base_path
- バケット内のリポジトリデータへのパスを指定します。デフォルトは空の文字列で、リポジトリはバケットのルートにあります。この設定の値は
/
で始まったり終わったりしてはいけません。
Elastic Cloud Enterpriseのスナップショットリポジトリを構成する際はbase_path
を設定しないでください。Elastic Cloud Enterpriseは、複数のデプロイメントが同じバケットを共有できるように、各デプロイメントのためにbase_path
を自動的に生成します。 chunk_size
- (バイト値) 大きなファイルは、必要に応じてスナップショット中にチャンクに分割できます。チャンクサイズを値と単位で指定します。例えば:
1TB
、1GB
、10MB
。デフォルトはS3のブロブの最大サイズである5TB
です。 compress
true
に設定すると、メタデータファイルは圧縮形式で保存されます。この設定は、デフォルトで圧縮されているインデックスファイルには影響しません。デフォルトはtrue
です。max_restore_bytes_per_sec
- (オプション、バイト値) ノードごとの最大スナップショット復元率。デフォルトは無制限です。復元は回復設定を通じても制限されます。
max_snapshot_bytes_per_sec
(オプション、バイト値) ノードごとの最大スナップショット作成率。デフォルトは
40mb
毎秒です。管理サービスの回復設定が設定されている場合、デフォルトは無制限で、さらに回復設定を通じて制限されます。readonly
- (オプション、ブール値)
true
の場合、リポジトリは読み取り専用です。クラスターはリポジトリからスナップショットを取得および復元できますが、リポジトリに書き込んだり、スナップショットを作成したりすることはできません。
書き込みアクセス権を持つクラスターのみがリポジトリにスナップショットを作成できます。リポジトリに接続されている他のすべてのクラスターは、readonly
パラメータをtrue
に設定する必要があります。false
の場合、クラスターはリポジトリに書き込み、スナップショットを作成できます。デフォルトはfalse
です。
同じスナップショットリポジトリを複数のクラスターで登録する場合、1つのクラスターのみがリポジトリへの書き込みアクセス権を持つべきです。複数のクラスターが同時にリポジトリに書き込むと、リポジトリの内容が破損するリスクがあります。 server_side_encryption
true
に設定すると、ファイルはAES256アルゴリズムを使用してサーバー側で暗号化されます。デフォルトはfalse
です。buffer_size
- (バイト値) チャンクが単一のリクエストを使用してアップロードされるしきい値。これを超えると、S3リポジトリはAWSマルチパートアップロードAPIを使用してチャンクをいくつかの部分に分割し、各部分を
buffer_size
の長さで独立してアップロードします。バッファサイズを5mb
未満に設定することは許可されていません。そうしないと、マルチパートAPIの使用が妨げられ、アップロードエラーが発生する可能性があります。バッファサイズを5gb
より大きく設定することもできません。これはS3によって許可される最大アップロードサイズです。デフォルトは100mb
または5%
のJVMヒープの小さい方です。 canned_acl
- S3リポジトリはすべてのS3缶詰ACLをサポートしています:
private
、public-read
、public-read-write
、authenticated-read
、log-delivery-write
、bucket-owner-read
、bucket-owner-full-control
。デフォルトはprivate
です。canned_acl
設定を使用して缶詰ACLを指定できます。S3リポジトリがバケットとオブジェクトを作成するとき、缶詰ACLがバケットとオブジェクトに追加されます。 storage_class
- リポジトリに書き込まれるオブジェクトのS3ストレージクラスを設定します。値は
standard
、reduced_redundancy
、standard_ia
、onezone_ia
、intelligent_tiering
のいずれかです。デフォルトはstandard
です。詳細についてはS3ストレージクラスを参照してください。 delete_objects_max_size
- (数値)
DeleteObjects
リクエストに使用される最大バッチサイズを1から1000の範囲で設定します。デフォルトは1000で、これはAWS DeleteObjects APIによってサポートされる最大値です。
以下に文書化されたリポジトリ設定でクライアント設定を定義するオプションは非推奨と見なされ、将来のバージョンで削除される予定です。
上記の設定に加えて、リポジトリ設定にすべての非セキュアクライアント設定を指定することもできます。この場合、リポジトリ設定に見つかったクライアント設定は、リポジトリで使用される名前付きクライアントの設定とマージされます。クライアント設定とリポジトリ設定の間の競合は、リポジトリ設定がクライアント設定よりも優先されることによって解決されます。
例えば:
Python
resp = client.snapshot.create_repository(
name="my_s3_repository",
repository={
"type": "s3",
"settings": {
"client": "my-client",
"bucket": "my-bucket",
"endpoint": "my.s3.endpoint"
}
},
)
print(resp)
Js
const response = await client.snapshot.createRepository({
name: "my_s3_repository",
repository: {
type: "s3",
settings: {
client: "my-client",
bucket: "my-bucket",
endpoint: "my.s3.endpoint",
},
},
});
console.log(response);
コンソール
PUT _snapshot/my_s3_repository
{
"type": "s3",
"settings": {
"client": "my-client",
"bucket": "my-bucket",
"endpoint": "my.s3.endpoint"
}
}
これは、my_client_name
クライアントからのすべてのクライアント設定を使用するリポジトリを設定しますが、endpoint
はリポジトリ設定によってmy.s3.endpoint
にオーバーライドされます。`
S3ストレージクラス
Amazon S3は、異なる操作特性を提供するさまざまなストレージクラスをサポートしています。たとえば、いくつかのクラスは、保存されたバイトあたりのコストが低いですが、リクエストあたりのコストが高く、他のクラスは可用性の保証に関して異なる場合があります。
Elasticsearchがデータオブジェクトを保存するために使用するストレージクラスをstorage_class
リポジトリ設定で指定できます。
既存のリポジトリでstorage_class
設定を変更すると、新しく作成されたオブジェクトのストレージクラスにのみ影響し、ストレージクラスの混在使用が発生します。
S3ライフサイクルポリシーを使用して、リポジトリ内の既存のオブジェクトのストレージクラスを調整できますが、グレイシャークラスなどのサポートされていないクラスにオブジェクトを移行してはいけません。また、オブジェクトを期限切れにしてはいけません。グレイシャーストレージクラスや他のサポートされていないストレージクラス、またはオブジェクトの期限切れを使用すると、リポジトリの内容へのアクセスを永久に失う可能性があります。
S3ストレージクラスに関する詳細は、[AWSストレージクラスガイド](https://docs.aws.amazon.com/AmazonS3/latest/dev/storage-class-intro.html)を参照してください。
## 推奨されるS3権限
Elasticsearchスナップショットプロセスを最小限のリソースに制限するために、既存のS3バケットと組み合わせてAmazon IAMを使用することをお勧めします。以下は、"snaps.example.com"という名前のS3バケットへのスナップショットアクセスを許可するポリシーの例です。これはAWS IAMコンソールを通じて、カスタムポリシーを作成し、次のようなポリシードキュメントを使用して構成できます(snaps.example.comをバケット名に変更)。
#### Js
``````js
{
"Statement": [
{
"Action": [
"s3:ListBucket",
"s3:GetBucketLocation",
"s3:ListBucketMultipartUploads",
"s3:ListBucketVersions"
],
"Effect": "Allow",
"Resource": [
"arn:aws:s3:::snaps.example.com"
]
},
{
"Action": [
"s3:GetObject",
"s3:PutObject",
"s3:DeleteObject",
"s3:AbortMultipartUpload",
"s3:ListMultipartUploadParts"
],
"Effect": "Allow",
"Resource": [
"arn:aws:s3:::snaps.example.com/*"
]
}
],
"Version": "2012-10-17"
}
`
バケット内のプレフィックスを指定することで、権限をさらに制限できます。この例では、”foo”という名前のプレフィックスを指定しています。
Js
{
"Statement": [
{
"Action": [
"s3:ListBucket",
"s3:GetBucketLocation",
"s3:ListBucketMultipartUploads",
"s3:ListBucketVersions"
],
"Condition": {
"StringLike": {
"s3:prefix": [
"foo/*"
]
}
},
"Effect": "Allow",
"Resource": [
"arn:aws:s3:::snaps.example.com"
]
},
{
"Action": [
"s3:GetObject",
"s3:PutObject",
"s3:DeleteObject",
"s3:AbortMultipartUpload",
"s3:ListMultipartUploadParts"
],
"Effect": "Allow",
"Resource": [
"arn:aws:s3:::snaps.example.com/foo/*"
]
}
],
"Version": "2012-10-17"
}
スナップショットのためにリポジトリを登録するには、バケットが存在する必要があります。バケットを作成していない場合、リポジトリの登録は失敗します。
認証のためのKubernetesサービスアカウントのIAMロールの使用
認証のためにKubernetesサービスアカウントを使用したい場合は、リポジトリがサービスアカウントの読み取りアクセスを持つために、S3リポジトリ設定ディレクトリに$AWS_WEB_IDENTITY_TOKEN_FILE
環境変数(Kubernetesポッドによって自動的に設定されるべき)へのシンボリックリンクを追加する必要があります(リポジトリは設定ディレクトリの外のファイルを読み取ることはできません)。例えば:
Bash
mkdir -p "${ES_PATH_CONF}/repository-s3"
ln -s $AWS_WEB_IDENTITY_TOKEN_FILE "${ES_PATH_CONF}/repository-s3/aws-web-identity-token-file"
シンボリックリンクは、すべてのデータおよびマスターノードに作成され、elasticsearch
ユーザーによって読み取れる必要があります。デフォルトでは、Elasticsearchはユーザーelasticsearch
として、uid:gid 1000:0
を使用して実行されます。
シンボリックリンクが存在する場合、明示的なclient
資格情報を持たないすべてのS3リポジトリによってデフォルトで使用されます。
マルチパートアップロードのクリーンアップ
Elasticsearchは、S3のマルチパートアップロードプロセスを使用して、リポジトリに大きなブロブをアップロードします。マルチパートアップロードプロセスは、各ブロブを小さな部分に分割し、各部分を独立してアップロードし、その後、別のステップでアップロードを完了することによって機能します。これにより、アップロードが失敗した場合にElasticsearchが再送信しなければならないデータの量が減ります:Elasticsearchは、全体のブロブの最初から再送信するのではなく、失敗した部分のみを再送信する必要があります。各部分のストレージは、部分がアップロードされた時点から独立して課金されます。
マルチパートアップロードが完了できない場合は、成功裏にアップロードされた部分を削除するために中止する必要があります。これにより、さらなるストレージ料金の蓄積を防ぎます。Elasticsearchは失敗時に自動的にマルチパートアップロードを中止しますが、時には中止リクエスト自体が失敗することがあります。たとえば、リポジトリにアクセスできなくなったり、Elasticsearchが実行されているインスタンスが突然終了した場合、Elasticsearchは進行中のアップロードを完了または中止できません。
失敗したアップロードが最終的に中止されることを確認し、不要なストレージコストを回避する必要があります。マルチパートアップロードのリストAPIを使用して進行中のアップロードをリストし、異常に長時間実行されているものを探すか、バケットライフサイクルポリシーを構成して、特定の年齢に達した未完了のアップロードを自動的に中止することができます。
AWS VPC帯域幅設定
AWSインスタンスはS3エンドポイントをパブリックIPに解決します。ElasticsearchインスタンスがAWS VPCのプライベートサブネットに存在する場合、S3へのすべてのトラフィックはVPCのNATインスタンスを通過します。VPCのNATインスタンスが小さいインスタンスサイズ(例:t2.micro)であるか、高いネットワークトラフィックを処理している場合、S3への帯域幅はそのNATインスタンスのネットワーク帯域幅制限によって制限される可能性があります。代わりに、プライベートサブネットに存在するインスタンスがS3に接続できるようにするVPCエンドポイントを作成することをお勧めします。これにより、VPCのNATインスタンスのネットワーク帯域幅によって課せられる制限が排除されます。
AWS VPCのパブリックサブネットに存在するインスタンスは、VPCのインターネットゲートウェイを介してS3に接続し、VPCのNATインスタンスによって帯域幅が制限されることはありません。
S3互換サービス
S3互換APIを提供するストレージシステムがいくつかあり、s3
リポジトリタイプを使用すると、これらのシステムをAWS S3の代わりに使用できます。そのためには、s3.client.CLIENT_NAME.endpoint
設定をシステムのエンドポイントに設定する必要があります。この設定はIPアドレスやホスト名を受け入れ、ポートを含むことができます。たとえば、エンドポイントは172.17.0.2
または172.17.0.2:9000
のようになります。
デフォルトでは、ElasticsearchはHTTPSを使用してストレージシステムと通信し、JVM全体のトラストストアを使用してリポジトリの証明書チェーンを検証します。JVM全体のトラストストアにリポジトリのエントリが含まれていることを確認してください。HTTPSの代わりに非セキュアなHTTP通信を使用したい場合は、s3.client.CLIENT_NAME.protocol
をhttp
に設定します。
MinIOは、S3互換APIを提供するストレージシステムの一例です。s3
リポジトリタイプは、ElasticsearchがMinIOバックエンドのリポジトリやAWS S3に保存されたリポジトリと連携できるようにします。他のS3互換ストレージシステムもElasticsearchと連携できる場合がありますが、これらはElasticsearchのテストスイートには含まれていません。
非常に有名なストレージベンダーのいくつかを含む多くのシステムが、S3の動作を完全にエミュレートできないにもかかわらず、S3互換APIを提供すると主張しています。このようなシステムをスナップショットに使用している場合は、標準化されたプロトコル(NFSなど)に基づく共有ファイルシステムリポジトリを使用してストレージシステムにアクセスすることを検討してください。s3
リポジトリタイプは、S3との完全な互換性を必要とします。特に、同じAPIエンドポイントのセットをサポートし、同じパラメータを持ち、失敗時に同じエラーを返し、複数のノードによって同時にアクセスされてもS3と同等以上の一貫性とパフォーマンスを提供する必要があります。発生する互換性の問題を解決するために、ストレージシステムのサプライヤーと協力する必要があります。S3互換であると主張するストレージシステムに関するElasticsearchの問題を報告しないでください。正当なAWS S3リポジトリを使用している場合に同じ問題が存在することを示すことができない限り。
ストレージシステムの適合性を基本的にチェックするために、リポジトリアナリシスAPIを使用できます。このAPIが正常に完了しない場合、またはパフォーマンスが悪いことを示す場合、ストレージシステムはAWS S3と完全に互換性がないため、スナップショットリポジトリとしての使用には適していません。ただし、これらのチェックは完全な互換性を保証するものではありません。
ほとんどのストレージシステムは、Elasticsearchとの相互作用の詳細をログに記録するように構成できます。AWS S3との互換性の問題を調査している場合、通常はこれらのログを収集し、ストレージシステムのサプライヤーに提供してさらなる分析を行うのが最も簡単です。ストレージシステムが出力するログから互換性の問題が明確でない場合、ElasticsearchがS3 APIに対して行うすべてのリクエストをログに記録するように構成します。com.amazonaws.request
ロガーのログレベルを設定してDEBUG
にします。
資格情報やキーなどの機密情報がログに漏れないようにするために、Elasticsearchは不正なネットワークトレースログが有効になっていない限り、高い冗長性でこのロガーを構成することを拒否します。これを行うには、各ノードでシステムプロパティes.insecure_network_trace_enabled
をtrue
に設定して明示的に有効にする必要があります。
有効にすると、com.amazonaws.request
ロガーを構成できます:
Python
resp = client.cluster.put_settings(
persistent={
"logger.com.amazonaws.request": "DEBUG"
},
)
print(resp)
Ruby
response = client.cluster.put_settings(
body: {
persistent: {
'logger.com.amazonaws.request' => 'DEBUG'
}
}
)
puts response
Js
const response = await client.cluster.putSettings({
persistent: {
"logger.com.amazonaws.request": "DEBUG",
},
});
console.log(response);
コンソール
PUT /_cluster/settings
{
"persistent": {
"logger.com.amazonaws.request": "DEBUG"
}
}
失敗した分析の期間をカバーするElasticsearchのログをすべてのノードから収集し、ストレージシステムのサプライヤーと分析応答を共有して、問題を特定できるようにします。詳細についてはAWS Java SDKのドキュメントを参照してください。他のロガーの詳細も含まれています。これらのロガーを使用して、さらに詳細なログを取得できます。サプライヤーが必要とするログを収集し終えたら、ロガー設定をnull
に戻してデフォルトのログ構成に戻し、不正なネットワークトレースログを再度無効にします。詳細についてはロガーおよびクラスター更新設定を参照してください。
線形レジスタの実装
S3リポジトリの線形レジスタ実装は、マルチパートアップロードAPIの強く一貫したセマンティクスに基づいています。Elasticsearchは最初にマルチパートアップロードを作成して、線形レジスタ操作を実行する意図を示します。次に、Elasticsearchは同じレジスタの他のすべてのマルチパートアップロードをリストしてキャンセルします。Elasticsearchはその後、アップロードを完了しようとします。アップロードが正常に完了した場合、比較と交換操作は原子的でした。