elasticsearch6.2.2安装中文分词插件IK analyzer
elasticsearch6.2.2安装中文分词插件IK analyzer
哎,装了一下午的ik终于装上了,发现自己真的是非常笨了,并且es重启过程中遇到了很多的问题,下面我将手把手教大家如何安装ik,尽可能细致些.
1. 首先我们需要到git上下载对应的安装包
输入如下网址可以看到很多ik的安装包,这边我们选择第一个
https://github.com/medcl/elasticsearch-analysis-ik
2. 进入到我们es的目录下,soft是我的文件根目录
cd /soft/elasticsearch-6.2.2/plugins
- 1
①git克隆到plugins目录下
git clone https://github.com/medcl/elasticsearch-analysis-ik
- 1
② 进行打jar包,每条语句都会有绿色的 BUILD SUCCESS
cd elasticsearch-analysis-ik/
mvn clean
mvn compile
mvn package
③在es pluings目录下新建ik目录
sudo mkdir ik
④把ik目录里target目录下release中的zip复制到ik文件夹中
sudo mv target/releases/elasticsearch-analysis-ik-6.2.2.zip ../ik
⑤解压此压缩包
sudo unzip elasticsearch-analysis-ik-6.2.2.zip
解压后可以看到ik目录下有解压后文件目录,但是es在load加载ik的时候是直接在ik文件下寻找config,bootstrap会寻找plugin-descriptor.properties,所以此时需要把elasticsearch这一层目录里的东西全部上移一层移动到ik目录下,一定要注意路径
sudo cp -r elasticsearch/* ./
⑥将plugins中的除ik目录其余的删除掉
⑦这里我的es是最新的6.2.2,所以不需要修改配置,有的5.x之前的据说需要,大家注意一下,如果需要打开es.yml,在最后一行加上如下内容
vim /etc/elasticsearch/elasticsearch.yml
index.analysis.analyzer.ik.type: "ik"
- 1
注意这里添加内容的格式,开头需要加一个空格, 冒号:前可加可不加空格,后必须加空格,如果报错可以参考一篇同学的blog,是空格导致错误的一些常见问题
https://www.cnblogs.com/jiu0821/p/5624908.html
3. 重新启动elasticsearch即可
有的同学是service elasticsearch restart就可以重启,我的是到es的bin目录下./elasticsearch才可以重启
可以看到plugin [analysis-ik] loaded,表示配置成功
4. 下面可以做个简单的测试
本人使用的es搭配kibana插件,具体的操作与head相似,不必纠结工具
①创建索引
PUT /index
②创建mapping
POST index/employ/_mapping
{
“properties”: {
“content”: {
“type”: “text”,
“analyzer”: “ik_max_word”,
“search_analyzer”: “ik_max_word”
}
}
}
③创建若干文档
POST index/employ/1
{
“content”:”我爱你中国”
}
执行一下,successful
再添加几个文档,相同的执行成功
POST index/employ/2
{
“content”:”中国我爱你”
}
POST index/employ/3
{
“content”:”中国你真美”
}
④关键字高亮搜索会看到分词的中国
GET index/employ/_search
{
“query”: {“match”: {
“content”: “中国”
}}
, “highlight”: {
“pre_tags” : [““, “”],
“post_tags” : [““, “”],
“fields” : {
“content” : {}
}
}
}
部分步骤可能还是不很明白,但是大概能给新手一些启发.
elasticsearch6.2.2安装中文分词插件IK analyzer相关推荐
- 如何在Elasticsearch中安装中文分词器(IK+pinyin)
如何在Elasticsearch中安装中文分词器(IK+pinyin) 如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题--中文词语被分成了一个一个的汉字,当 ...
- elasticsearch7 安装并安装中文分词插件
1.下载elasticsearch https://www.elastic.co/cn/downloads/elasticsearch (我这里用的windows版本)2.解压后启动 elastics ...
- Solr - 中文分词器IK Analyzer的简介及配置
简介 IK Analyzer 是一个开源的,基于 java 语言开发的轻量级的中文分词工具包.它是以开源项目Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件,IK 实现了简单的分词 ...
- 分享Lucene中文分词组件IK Analyzer V3.2.8
IK Analyzer 3.X介绍 IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包.从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本 ...
- Docker安装Elasticsearch及安装中文分词插件
下载镜像 docker pull elasticsearch:6.5.0 启动ES docker run -p 9200:9200 -d --name es_6_5_0 elasticsearch:6 ...
- 中文分词下载IK Analyzer 2012FF_hf1
1.解压后 把IKAnalyzer2012FF_u1.jar 复制到tomcat\solr\WEB-INF\lib 下 2.把 stopword.dic .IKAnalyzer.cfg.xml 复制 ...
- ElasticSearch 安装中文分词器
1.安装中文分词器IK 下载地址:https://github.com/medcl/elasticsearch-analysis-ik 在线下载安装: elasticsearch-plugin.bat ...
- elasticsearch5安装和elasticsearch-analysis-ik中文分词插件安装
ElasticSearch简介 Elastic有一条完整的产品线及解决方案:Elasticsearch.Kibana.Logstash等,前面说的三个就是大家常说的ELK技术栈. Elasticsea ...
- Elasticsearch学习笔记(三)安装hanlp中文分词插件及同义词配置
目录 hanlp分词插件 插件安装 在线安装 离线安装 安装数据包 同义词配置 hanlp分词插件 HanLP是一款免费开源(Apache License 2.0协议)中文语义分词工具,它提供中文分词 ...
最新文章
- 【android API】 ListView api 翻译
- Nginx重定向到子目录问题
- 基于100,000篇演讲的分析数据科学家发现了最佳演讲者的特征——及时解释听众不懂的词语,必要时提高10%的音调,正确和恰当的手势,氛围的营造...
- 我看暴库漏洞原理及规律
- docker系列之安装配置-2
- 炒房客身家过亿 曝炒房心得及地产10大真相
- BugkuCTF-MISC题红绿灯
- 国家计算机病毒中心发布违规 APP 和 SDK 名单
- Driver 初始化顺序
- PyQt之按钮传递鼠标按下事件点击失效
- matlab画中国,用matlab绘制中国地图
- c语言字段宽度,2.6.3 控制输出的字段宽度
- 【转载】CMMI与敏捷开发模式比较
- mysql时间类型英文_英文日期格式及缩写
- 成倍提升ORM系统SQL性能的一个方法
- 在EXCEL中生成服从三角分布随机数的方法
- MySQL中count是怎样执行的?———count(1),count(id),count(非索引列),count(二级索引列)的分析
- javascript(JS)---立即执行函数(immediately-invoked function expressions,IIFE)
- 竞品分析(淘宝、京东)
- linux回炉学习(七)