1.从github中下载IK分词器,一定要注意和ES的版本一致
https://github.com/medcl/elasticsearch-analysis-ik/releases
2 .下载之后放到...plugins 目录下面去 重启 ES 服务
测试:http://localhost:9200/blog1/_analyze
{
"text":"中华人民共和国MN","tokenizer": "ik_max_word...和 ik_smart 什么区别?...ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合...,适合 Term Query;
ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,适合 Phrase 查询。