- elasticsearch默認分詞器的了解
- elasticsearch的ik分詞器的安裝(ik由國內(nèi)大神開源)
- ik分詞器的配置自定義字典
在kibana默認提供的檢索分析
在kibana中采用standard分詞器分析this is my cat据忘。(對英文支持的非常好)
POST _analyze
{
"analyzer": "standard",
"text": "this is my cat"
}
es標準分詞器對英文的支持
在kibana中采用standard分詞器分析“我是中國人”舰涌。(對中文的支持很差蒙保,把每個中文的文字當作一個次。這里不能自動識別中國、中國人)
POST _analyze
{
"analyzer": "standard",
"text": "我是中國人"
}
image.png
elasticsearch的ik分詞器安裝
只需下載其已經(jīng)編譯好的包,下載版本與es保持一致萤晴。無需安裝,解壓即可使用
github地址 medcl/elasticsearch-analysis-ik
ik的github
image.png
cd elasticsearch/elasticsearch-7.2.0/plugins/ && mkdir ik7.2.0
#下載zip文件
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.2.0/elasticsearch-analysis-ik-7.2.0.zip
#解壓zip文件
unzip elasticsearch-analysis-ik-7.2.0.zip -d ik7.2.0/
#刪除下載文件(plugins目錄不允許非插件文件存在)
rm elasticsearch-analysis-ik-7.2.0.zip
#重啟es
重啟es和可以查看效果
注意之前使用的是standard分詞器胁后,現(xiàn)在使用ik提供的ik_smart店读、ik_max_word分詞器
例子1-ik_smart
POST _analyze
{
"analyzer": "ik_smart",
"text": "我是中國人"
}
image.png
例子2-ik_max_work
POST _analyze
{
"analyzer": "ik_max_word",
"text": "我是中國人"
}
image.png
例子3-ik_smart
POST _analyze
{
"analyzer": "ik_smart",
"text": "公安部:各地校車將享最高路權人"
}
image.png
ik分詞器的配置自定義字典
可以在ik目錄下config中的.dic文件中添加你的詞典
ik配置詞典的位置
ik字典的樣子