Elasticsearch(二)IK中文分词器
文章目录
- 安装 ik 分词器
- 在三个节点上安装 ik 分词器
- 查看安装结果
- ik分词测试
- `ik_max_word` 分词测试
- `ik_smart` 分词测试
安装 ik 分词器
从 ik 分词器项目仓库中下载 ik 分词器安装包,下载的版本需要与 Elasticsearch 版本匹配:
https://github.com/medcl/elasticsearch-analysis-ik
或者可以访问 gitee 镜像仓库:
https://gitee.com/mirrors/elasticsearch-analysis-ik
下载 elasticsearch-analysis-ik-7.9.3.zip
复制到 /root/
目录下
在三个节点上安装 ik 分词器
cd ~/# 复制 ik 分词器到三个 es 容器
docker cp elasticsearch-analysis-ik-7.9.3.zip node1:/root/
docker cp elasticsearch-analysis-ik-7.9.3.zip node2:/root/
docker cp elasticsearch-analysis-ik-7.9.3.zip node3:/root/# 在 node1 中安装 ik 分词器
docker exec -it node1 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip# 在 node2 中安装 ik 分词器
docker exec -it node2 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip# 在 node3 中安装 ik 分词器
docker exec -it node3 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip# 重启三个 es 容器
docker restart node1 node2 node3
查看安装结果
在浏览器中访问 http://192.168.64.181:9200/_cat/plugins
如果插件不可用,可以卸载后重新安装:
docker exec -it node1 elasticsearch-plugin remove analysis-ikdocker exec -it node2 elasticsearch-plugin remove analysis-ikdocker exec -it node3 elasticsearch-plugin remove analysis-ik
ik分词测试
ik分词器提供两种分词器: ik_max_word
和 ik_smart
ik_max_word
: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合,适合 Term Query;
ik_smart
: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,适合 Phrase 查询。
ik_max_word
分词测试
使用 head 执行下面测试:
向 http://192.168.64.181:9200/_analyze
路径提交 POST
请求,并在协议体中提交 Json 数据:
{"analyzer":"ik_max_word","text":"中华人民共和国国歌"
}
ik_smart
分词测试
使用 head 执行下面测试:
向 http://192.168.64.181:9200/_analyze
路径提交 POST
请求,并在协议体中提交 Json 数据:
{"analyzer":"ik_smart","text":"中华人民共和国国歌"
}
Elasticsearch(二)IK中文分词器相关推荐
- Elasticsearch:IK 中文分词器
Elasticsearch 内置的分词器对中文不友好,只会一个字一个字的分,无法形成词语,比如: POST /_analyze {"text": "我爱北京天安门&quo ...
- Elasticsearch配置ik中文分词器自定义词库
1.IK配置文件 在config目录下: IKAnalyzer.cfg.xml:配置自定义词库 main.dic:分词器自带的词库,索引会按照里面的词创建 quantifier.dic:存放计量单位词 ...
- ElasticSearch的IK中文分词器
目录 概述 一.安装下载 二.设置es使用ik分词器 三.效果对比 四.ik分词器自定义字典 五.ik分词器自定义字典的配置 概述 本文主要介绍了 ik 分词器在es中的一些配置以及原理,包括 下载安 ...
- Elasticsearch(四) - IK中文分词器
es对中文分词不给力,所以要用ik分词器. 下载和es对应版本的ik # cd /usr/local/elasticsearch-6.5.3/plugins # mkdir ik # cd ik/ # ...
- springboot elasticsearch vue ik中文分词器 实现百度/京东全文搜索
背景:实现和百度搜索一样效果的,全文搜索引擎支持关键词高亮显示 文章目录 1. 企业级搜索引擎解决方案 2. 创建索引规则 3. 数据拉取 4. 搜索高亮 5. 自定义词库 6. 效果图 7. 开源源 ...
- Elasticsearch教程(28) text和keyword区别 term和match区别 ik中文分词器使用
text和keyword区别 term和match区别 ik中文分词器使用 一.前言 二.之前相关的博客 三.造点测试数据 1. 创建一个index 2. 插入测试数据 四.做一份试卷 第1题:tit ...
- Elasticsearch 7.X 中文分词器 ik 使用,及词库的动态扩展
一.ik中文分词器 上篇文章我们学习了ES集群分片和水平扩容,前面再使用的时候应该就会发现,在做match 匹配时,默认会进行分词,但当查询内容是中文时,分词效果是一个字被认定了一个词,这显然不符合我 ...
- 如何在Elasticsearch中安装中文分词器(IK+pinyin)
如何在Elasticsearch中安装中文分词器(IK+pinyin) 如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题--中文词语被分成了一个一个的汉字,当 ...
- python连接es_Elasticsearch --- 3. ik中文分词器, python操作es
一.IK中文分词器 1.下载安装 2.测试 #显示结果 {"tokens": [ {"token" : "上海","start_o ...
- 学习 ES 的笔记、全文检索、倒排索引、Lucene、ik中文分词器、Kibana使用Dev Tools
文章目录 感悟 新接触的单词 知识点一:ES是什么? 知识点二:ES基本概念 知识点三:1.1 什么是全文检索和Lucene? 知识点四:1.2 什么是倒排索引,Lucene实现全文检索的流程是怎样? ...
最新文章
- Hibernate 的Set、List、Map集合操作(添加,修改,查询)
- wxWidgets:SVG 示例
- 20190421-那些年使用过的CSS预处理器(CSS Preprocessor)之Sass and Less
- 【跃迁之路】【651天】程序员高效学习方法论探索系列(实验阶段408-2018.11.24)...
- Visual Studio 2010 调试 C 语言程序
- HTML5游戏引擎Egret发布2.0版 开发工具亦获更新
- (28)css3 3D转换
- 上传excel,并保存excel内容
- Kafka从上手到实践-Kafka集群:重要配置和性能探讨 | 凌云时刻
- 英语对程序员来讲有多重要?不会英语可以做程序员吗?
- 全网视频下载器网页版-AllTubeDownload
- SQL server和SSMS的安装及使用说明
- Caffe中的损失函数
- 在matlab中建模基准地形和山峰
- ubuntu中的libtool问题
- 软件好,才是真的好:区块链的1976—2017
- 黑客入门教程(非常详细)从零基础入门到精通,看完这一篇就够了
- 如何使用JavaScript将毫秒转换为日期格式
- 1998考研阅读Text3翻译
- RHCE linux学习第十二天
热门文章
- IOS 5支持的字体
- Manjaro安装pscs6菜单栏无法显示中文,提示‘$$/ADMDialog/iFontProblemWarning=The Adobe UI font could not be loaded.’
- 文件设置默认打开方式
- Python的一个图片识别工具-PyTesseract(Win10)
- 神经网络中的阈值是什么
- 网上的测量工具-在线直尺
- 使用Android的Service实现后台定时检测并重启应用
- 学习总结-《父与子的编程之旅》chapter 6
- 【数据库MySQL】
- 45特征03——最小多项式的概念和性质、广义特征子空间分解