前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >ElasticSearch 7.x.x IK分词器-安装及使用

ElasticSearch 7.x.x IK分词器-安装及使用

作者头像
李昂君
发布2021-12-24 18:18:30
发布2021-12-24 18:18:30
1.9K0
举报
文章被收录于专栏:李昂君李昂君

阅读量: 68

本文es版本7.6.1 本文ik分词器版本7.6.1 es所在环境:ubuntu

神马是IK分词器?

分词:即把一段中文或者别的划分成一个个的关键字,我们在搜时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比如“我习惯记笔记学习”会被分为:

这显然是符合要求的,所以我们需要安装中文分词器IK来解决这个问题!

如果要使用中文,建议使用IK分词器!

IK提供了两个分词算法:ik_smart ik_max_word ,其中 ik_smart 为最少切分,ik_max_word 为最细粒度划分!

如何安装?

下载地址:点我跳转

ik分词器版本大纲:点我跳转

下载完毕之后,放入到我们的es的 plugins 目录下即可即可!

重启es观察

进入es容器中,通过 elasticsearch-plugin 查看插件是否加载进来

使用 kibana 测试

查看不同的分词器效果

其中 ik_smart 为最少切分

ik_max_word 为最细粒度划分,穷尽所有可能!

问题

我们输入:我习惯记笔记学习

发现一个问题:记笔记学习,被拆开了!

这种情况,需要自己把关键词,加入到分词器的字典中!

IK分词器增加自己的配置

重启es看细节

若有多个dic,可以用 ; 分割

再次输入:我习惯记笔记学习 ,看下效果

以后的业务流程中,我们需要自己配置分词就在自定义的dic文件中进行配置即可!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-12-23 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 神马是IK分词器?
  • 如何安装?
  • 问题
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档