分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词器是将每个字看成一个词,比如"我爱技术"...ik_max_word为最细粒度划分
安装 IK:
同样下载不说直接安装.记得版本相同
?...解压缩后拷贝到ElasticSearch的plugins文件夹下
?
改了个名
?
重启ES
之前是没有插件加载的
?
添加IK后
?
...可以清晰的看到加载了 analysis-ik
也可以通过ES自带的工具查看 命令行执行 ElasticSearch-plugin list
?
进入Kibana测试
先测试 ik_smart
?
...,我TM...无语了
当我快绝望的时候发现,原来Kibana也一直在报错,接着我把Kibana和head插件都关闭后重新启动
发现不报错了,接下来重新配置IK配置文件,然后重启,发现一点事也没有了
?