ES--IK分词器安装
1. github下载相应版本下载(这里提供7.5)
Releases · medcl/elasticsearch-analysis-ik · GitHubThe IK Analysis plugin integrates Lucene IK analyzer into elasticsearch, support customized dictionary. - Releases · medcl/elasticsearch-analysis-ikhttps://github.com/medcl/elasticsearch-analysis-ik/releases?after=v7.5.2
2.安装
解压到es的plugin目录下
3. 重启es
4.使用
ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合,适合 Term Query;
ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,适合 Phrase 查询。
# 创建索引ik_max_word
PUT books
{"mappings": {"properties":{"title":{"type":"text","analyzer": "ik_max_word"},"price":{"type":"integer"},"addr":{"type":"keyword"},"company":{"properties":{"name":{"type":"text"},"company_addr":{"type":"text"},"employee_count":{"type":"integer"}}},"publish_date":{"type":"date","format":"yyy-MM-dd"}}}
}
# 插入数据
PUT books/_doc/1
{"title":"大头儿子小偷爸爸","price":100, "addr":"北京天安门","company":{"name":"我爱北京天安门","company_addr":"我的家在东北松花江傻姑娘","employee_count":10},"publish_date":"2019-08-19"
}PUT books/_doc/2
{"title":"白雪公主和十个小矮人","price":"99","addr":"黑暗森里","company":{"name":"我的家乡在上海","company_addr":"朋友一生一起走","employee_count":10},"publish_date":"2018-05-19"
}GET books/_mapping# 查看分词
GET _analyze
{"analyzer": "ik_max_word","text": "白雪公主和十个小矮人"
}
# 查看文档
GET books/_search
{"query": {"match": {"title": "十"}}
}# 创建索引 ik_smartPUT books2
{"mappings": {"properties":{"title":{"type":"text","analyzer": "ik_smart"},"price":{"type":"integer"},"addr":{"type":"keyword"},"company":{"properties":{"name":{"type":"text"},"company_addr":{"type":"text"},"employee_count":{"type":"integer"}}},"publish_date":{"type":"date","format":"yyy-MM-dd"}}}
}PUT books2/_doc/1
{"title":"大头儿子小偷爸爸","price":100, "addr":"北京天安门","company":{"name":"我爱北京天安门","company_addr":"我的家在东北松花江傻姑娘","employee_count":10},"publish_date":"2019-08-19"
}#
PUT books2/_doc/2
{"title":"白雪公主和十个小矮人","price":"99","addr":"黑暗森里","company":{"name":"我的家乡在上海","company_addr":"朋友一生一起走","employee_count":10},"publish_date":"2018-05-19"
}# 查看分词
GET _analyze
{"analyzer": "ik_smart","text": "白雪公主和十个小矮人"
}
# 查看文档
GET books2/_search
{"query": {"match": {"title": "十个"}}
}
ES--IK分词器安装相关推荐
- Elasticsearch+elasticsearch-head的安装+Kibana环境搭建+ik分词器安装
一.安装JDK1.8 二.安装ES 三个节点:master.slave01.slave02 1.这里下载的是elasticsearch-6.3.1.rpm版本包 https://www.elastic ...
- ElasticSearch IK分词器安装
2019独角兽企业重金招聘Python工程师标准>>> Elasticsearch 默认是带分词器了,对英文是按固定的英文的空格,或者"-"进行分词,但是对中文分 ...
- es ik分词插件安装
es ik分词插件安装 1.ik下载(下载es对应版本的ik分词包) https://github.com/medcl/elasticsearch-analysis-ik/releases 2.解压下 ...
- ik分词器安装_Elasticsearch-analysis-ik-7.4.0_Linux_安装
ik分词器安装_Elasticsearch-analysis-ik-7.4.0 文章目录 ik分词器安装_Elasticsearch-analysis-ik-7.4.0 IK分词器安装 1.环境准备 ...
- 【Elasticsearch】es IK分词器的安装
1.概述 [Elasticsearch]es 7.8.0 唐诗三百首写入 Elasticsearch 会发生什么 之前我们创建索引,查询数据,都是使用的默认的分词器,分词效果不太理想,会把text的字 ...
- docker使用小记——docker安装es+ik分词器+拼音分词器+kibana
一.docker安装:Windows Docker 安装 | 菜鸟教程 二.docker换镜像源 修改或新增 /etc/docker/daemon.json vi /etc/docker/daemon ...
- Elasticsearch的ik分词器安装和验证
1.什么是分词器 把文本转换为一个个的单词,分词称之为analysis.es默认只对英文语句做分词,中文不支持,每个中文字都会被拆分为独立的个体. 2.es内置分词器 standard ...
- 本地elasticsearch中文分词器 ik分词器安装及使用
ElasticSearch 内置了分词器,如标准分词器.简单分词器.空白词器等.但这些分词器对我们最常使用的中文并不友好,不能按我们的语言习惯进行分词. ik分词器就是一个标准的中文分词器.它可以根据 ...
- 分页解决方案及IK分词器安装使用、分片交互过程
一 分页 1.导入数据 DELETE us POST /_bulk { "create": { "_index": "us", " ...
- ES IK分词器 - 停用词
安装IK中文分词器 参考github (https://github.com/medcl/elasticsearch-analysis-ik/tree/v7.6.1) 1.download or co ...
最新文章
- [转]xml解析工具的效率比较QDomDocument、TinyXml-2、RapidXml、PugiXml
- 对网上花店系统进行软件测试,网上花店系统
- OkHttp实现分析之Websocket
- 攻城时服务器维护,8月31日服务器维护更新公告
- markdown 转义字符
- LeetCode 515. 在每个树行中找最大值(层序遍历)
- Bootstrap创建按钮下拉菜单
- 深度解析国内主流离线编程软件
- SCSI代码分析(3)SCSI设备的管理2
- 计算机表格做八折怎么辛,五笔字根表口诀.doc
- 四元数与欧拉角之间的换算关系
- ems 的条形码生成PHP JS,thinkphp5 Barcodegen 生成条形码
- python excel画图_利用python在excel中画图的实现方法
- 计算机替换字体怎么操作,电脑怎么更换字体-电脑更换字体的方法 - 河东软件园...
- 贪心算法 | 神秘电报密码——哈夫曼编码
- 从零开始搭建仿抖音短视频APP-后端消息业务模块开发(2)-基础版完结篇
- 游戏服务器需要什么配置?
- Android Launcher 入门
- python3.8 百度网盘下载
- 2022-11-20 第 320 场周赛