Я следую приведенному здесь совету, чтобы найти частичные слова с помощью elasticsearch:
ElasticSearch n-gram tokenfilter не находит частичные слова
Я создал простой сценарий bash, который пытается запустить версию это:
curl -XDELETE 10.160.86.134:9200/products
curl -XPOST 10.160.86.134:9200/products -d '{
"index": {
"number_of_shards": 1,
"analysis": {
"filter": {
"mynGram" : {"type": "nGram", "min_gram": 2, "max_gram": 10}
},
"analyzer": {
"a1" : {
"type":"custom",
"tokenizer": "standard",
"filter": ["lowercase", "mynGram"]
}
}
}
}
}
}'
curl -XPUT 10.160.86.134:9200/products/_mapping -d '{
"product" : {
"index_analyzer" : "a1",
"search_analyzer" : "standard",
"properties" : {
"product_description": {"type":"string"},
"product_name": {"type":"string"}
}
}
}'
После запуска этого сценария первые две команды (сброс продуктов, затем установка индекса), похоже, работают, что дает мне следующее:
{"ok":true,"acknowledged":true}
{"ok":true,"acknowledged":true}
Затем происходит ошибка после вызова сопоставления, давая мне это:
{"error":"ActionRequestValidationException[Validation Failed: 1: mapping type is missing;]","status":500}
Кто-нибудь может увидеть что я делаю не так? При поиске в Google начинается автозаполнение «сопоставление не найдено elasticsearch», так что это, по-видимому, очень распространенная ошибка.