クラシックトークンフィルター
classic
トークナイザー によって生成された用語のオプションの後処理を実行します。
このフィルターは、単語の末尾から英語の所有格 ('s
) を削除し、略語からドットを削除します。Lucene の ClassicFilter を使用します。
例
以下の analyze API リクエストは、クラシックトークンフィルターがどのように機能するかを示しています。
Python
resp = client.indices.analyze(
tokenizer="classic",
filter=[
"classic"
],
text="The 2 Q.U.I.C.K. Brown-Foxes jumped over the lazy dog's bone.",
)
print(resp)
Ruby
response = client.indices.analyze(
body: {
tokenizer: 'classic',
filter: [
'classic'
],
text: "The 2 Q.U.I.C.K. Brown-Foxes jumped over the lazy dog's bone."
}
)
puts response
Js
const response = await client.indices.analyze({
tokenizer: "classic",
filter: ["classic"],
text: "The 2 Q.U.I.C.K. Brown-Foxes jumped over the lazy dog's bone.",
});
console.log(response);
コンソール
GET /_analyze
{
"tokenizer" : "classic",
"filter" : ["classic"],
"text" : "The 2 Q.U.I.C.K. Brown-Foxes jumped over the lazy dog's bone."
}
フィルターは次のトークンを生成します:
テキスト
[ The, 2, QUICK, Brown, Foxes, jumped, over, the, lazy, dog, bone ]
アナライザーに追加
以下の create index API リクエストは、クラシックトークンフィルターを使用して新しい カスタムアナライザー を構成します。
Python
resp = client.indices.create(
index="classic_example",
settings={
"analysis": {
"analyzer": {
"classic_analyzer": {
"tokenizer": "classic",
"filter": [
"classic"
]
}
}
}
},
)
print(resp)
Ruby
response = client.indices.create(
index: 'classic_example',
body: {
settings: {
analysis: {
analyzer: {
classic_analyzer: {
tokenizer: 'classic',
filter: [
'classic'
]
}
}
}
}
}
)
puts response
Js
const response = await client.indices.create({
index: "classic_example",
settings: {
analysis: {
analyzer: {
classic_analyzer: {
tokenizer: "classic",
filter: ["classic"],
},
},
},
},
});
console.log(response);
コンソール
PUT /classic_example
{
"settings": {
"analysis": {
"analyzer": {
"classic_analyzer": {
"tokenizer": "classic",
"filter": [ "classic" ]
}
}
}
}
}