ES集群扩容构建踩坑总结

文章目录

    • ES集群扩容构建踩坑总结
    • @[toc]
  • 需求
    • 配置
      • 参数说明
    • Data node’s cluster uuid diffrent from master node’s cluster uuid
    • Elasticsearch: adding a second node to the cluster - [node-1] master not discovered yet: have discovered [{node-1}
      • Elasticsearch: Max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
    • 集群搭建完成,分片未分配
      • 问题1
      • 问题2
    • 重新路由
      • Lucene索引文件介绍
      • 多节点集群搭建的elasticsearch.yml配置

需求

在原有单一节点(node-1)中进行构建双节点集群

配置

node-1的elasticsearch.yml的配置信息如下

cluster.name: elasticsearch
node.name: node-1
node.master: true
node.data: true
network.host: 192.168.3.147
http.port: 9200
transport.tcp.port: 9300   ###在构建集群通信时必须有这个配置,否则无法建立通信
discovery.seed_hosts: ["192.168.3.147:9300","192.168.3.211:9300"]
cluster.initial_master_nodes: ["node-1"]
http.cors.enabled: true
http.cors.allow-origin: "*"
indices.breaker.fielddata.limit: 60%
indices.fielddata.cache.size: 40%
path.repo: ["/usr/local/elasticsearch/backups/es_backup"]
#indices.requests.cache.size: 5%
#indices.memory.index_buffer_size: 70%
#index.refresh_interval: 30s   ###此项设置,建议使用API动态设置
xpack.security.enabled: false
search.max_open_scroll_context: 1000000
cluster.routing.allocation.disk.threshold_enabled: false
#cluster.routing.allocation.disk.watermark.low: 90%
#cluster.routing.allocation.disk.watermark.high: 95%
#cluster.routing.allocation.disk.watermark.flood_stage: 98%

参数说明

  • cluster.name: 集群名称
  • node.master: 主节点 (默认true) 主要用来创建或者删除索引,以及决定哪些分片分配给相关的节点.
  • node.data: 数据节点,主要用来存储索引数据的节点,即对文档增删改查、聚合等操作。
  • node.ingest: 预处理节点(一般情况是不会去配置这个节点的)在索引数据之前可以先对数据做预处理操作,所有节点其实默认都是支持 Ingest 操作的,也可以专门将某个节点配置为 Ingest 节点。
  • http.port: http请求端口
  • transport.tcp.port:集群中节点通信的端口
  • discovery.seed_hosts: 提供集群中其他的节点列表进行发现
  • cluster.initial_master_nodes: 第一次启动elasticsearch集群时,集群引导步骤会确定符合主节点资格的节点集。
  • indices.breaker.fielddata.limit: 断路器配置,用来防止操作时造成OutOfMemoryError,指定可以使用多少内存限制。详见此
  • path.repo: 快照存放目录,还需要用API进行创建仓库responsitry,具体可见另一篇文档,有对快照备份的详细操作,个人亲测有效
  • cluster.routing.allocation.disk.threshold_enabled: 磁盘分配设置,用来修改磁盘使用率。

增加节点node-2,配置如下

cluster.name: elasticsearch
node.name: node-2
node.master: false
node.data: true
network.host: 192.168.3.211
http.port: 9200
transport.tcp.port: 9300
discovery.seed_hosts: ["192.168.3.147:9300","192.168.3.211:9300"]
cluster.initial_master_nodes: ["node-1"]
http.cors.enabled: true
http.cors.allow-origin: "*"
xpack.security.enabled: false
search.max_open_scroll_context: 1000000
cluster.routing.allocation.disk.threshold_enabled: false

本机测试及其他服务器上测试中如上配置是可以稳定的进行节点扩容。

Data node’s cluster uuid diffrent from master node’s cluster uuid

出现这个问题的原因主要是: cluster.name不同导致的cluster.uuid不同。产生的原因是node-1有与其他节点构成一个集群的部署,cluster.name: elasticsearch. 之后node-1又与其他节点构成一个集群,cluster.name: elasticsearch_prod. node-1因为前后cluster.name不一致造成的。还可能产生的原因是cluster.name后面有空格.

解决该问题的最好的方式就是:采用其默认的cluster.name: elasticsearch

Elasticsearch: adding a second node to the cluster - [node-1] master not discovered yet: have discovered [{node-1}

出现上述问题可参考如下方式去排查

  • 防火墙是否禁用
  • transport.tcp.port: 9300这个配置是否有
  • network.host: 127.0.0.1 改为 192.168.3.211
  • discovery.seed_hosts 集群节点列表是否配置

Elasticsearch: Max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

该问题属于常见问题,elastsearch允许的虚拟内存不足

sudo vim /etc/sysctl.conf
vm.max_map_count = 262144
sudo sysctl -w vm.max_map_count=262144

集群搭建完成,分片未分配

问题1

集群通信建立,但是分片未进行分配

双节点集群搭建完成,由于之前的分片未恢复而导致分片无法进行再平衡设置时,可以参考官网的集群级分片和路由设置

cluster.routing.allocation.enable

(动态)为特定类型的分片启用或禁用分配:

  • all - (默认)允许为所有类型的分片分配分片。
  • primaries - 只允许对主分片进行分片分配。
  • new_primaries - 仅允许为新索引的主分片分配分片。
  • none - 不允许对任何索引进行任何类型的分片分配。

cluster.routing.allocation.allow_rebalance

(动态)指定何时允许分片重新平衡:

  • always - 始终允许重新平衡。
  • indices_primaries_active - 仅当分配了集群中的所有主节点时。
  • indices_all_active - (默认)仅当集群中的所有分片(主分片和副本)都已分配时。****

该设置不影响重启节点时本地主分片的恢复。具有未分配主分片副本的重新启动节点将立即恢复该主分片,假设其分配 id 与集群状态中的活动分配 id 之一匹配。

put /_cluster/settings
{"transient": {"cluster.routing.allocation.enable": "all",  //为所有类型的分片分配分配"cluster.routing.allocation.allow_rebalance": "always", //始终允许重新平衡// "cluster.routing.rebalance.enable": "all"  //为所有类型的分配进行分片进行再平衡设置}
}

transient: 暂时性的配置,ES服务重启后就失效了

persistent: 永久性的。

通过如上API设置,可以实现分片的再平衡设置。

问题2

分片未恢复

CLUSTER_RECOVERED: 完全集群导致分片未分配

通过**GET _cluster/allocation/explain** 对分片未分配原因进行分析

报错原因是checksum failed (hardware problem?) : expected=cdd45b03 actual=4ff129f6 (resource=BufferedChecksumIndexInput(MMapIndexInput(path=\"/usr/local/elasticsearch/data/nodes/0/indices/yKvhEnU9StmlPSRTpfWd1Q/46/index/_3g_Lucene50_0.tip\")))"硬件问题 磁盘损坏,文档丢失,磁盘空间不足等等情况都可以能导致该错误的发生。

可以通过Luence-core-8.20.1.jar包对分片的segements运行CheckIndex程序。如下命令会对分段进行验证校验和,还会确保索引实际上可以被读取并且使其数据结构彼此一致(对于这个使其数据结构彼此一致的说法个人是保持怀疑态度的,因为我进行如下命令也没发现有进行修复)。这个程序运行时间可能会有点久,这个主要根据分片大小决定。31G分片执行校验在400~500s这个范围。

java -cp /usr/share/elasticsearch/lib/lucene-core-4.10.4.jar -ea:org.apache.lucene... org.apache.lucene.index.CheckIndex $datadir/nodes/0/indices/$index/$shard/index/

这程序执行完之后。会显示该分片是否损坏。结果如下。虽然提示的结果显示segments文档损坏,通过附加-exorcise参数可以对segemetns进行文档的修改,但是会丢失对应的文档。个人建议谨慎操作。再进行该项操作时可以看该目录下是否有corrupted_*这个文件,这个文件是对该分片的标识文件,可以将该文件进行移除,然后重启ES服务。个人亲测有效。

如果要进行-exoricise参数对分段进行文档修复(这是在允许文档数据丢失情况下)之前最好做好备份。

在对corrupted_*损坏文件进行移除后,集群恢复如下

发现还有2个节点未恢复,根据**GET _cluster/allocation/explain**在进行分片未分配原因分析

通过上述分析,没有报错原因。则可以尝试进行分片的重新路由

cannot allocate because all found copies of the shard are either stale or corrupt这个问题是毫无参考价值的,基本上分片只要未分配都是给你这个提示。

重新路由

重新路由命令可以手动的将未分配的分片进行分配到节点上。主要有3个参数

  • move: 将已启动的分片从一个节点移动到另一个节点
  • cancel: 取消分片(或恢复)的分配 它还接受 allow_primary 标志以明确指定允许取消对主分片的分配。这可用于强制从主分片重新同步现有副本,方法是取消它们并允许它们通过标准重新分配过程重新初始化
  • allocate: 将未分配的分片分配给节点。接受索引名称和分片编号的索引和分片,以及将分片分配到的节点。它还接受 allow_primary 标志来明确指定允许明确分配主分片(可能导致数据丢失)allocate_stale_primary对主分片进行操作。accept_data_loss:允许数据丢失,所以谨慎操作,最好能对索引进行备份。Elasticserch7.0以后官方都推荐使用快照的形式对索引进行数据备份操作。
POST /_cluster/reroute
{"commands": [{"allocate_stale_primary": {"index": "sedb","shard": 0,"node": "node-1","accept_data_loss": true}}]
}

在进行分片重新路由时,必须确保分片目录下没有corrupted_*这个损坏文件的标识,否则是不会进行分片强制分配的。

个人认为:对于分片数据恢复或者说未分配的解决思路是:可以先对分片未分配原因进行分析,ES的这个API GET _cluster/allocation/explain 是非常不错的工具。步骤如下:

1、检查分片文件的损坏文档情况 采用Lucence 库 Luence-core-8.20.1.jar 对segments进行校验。

2、分片中的存在的损坏文件进行移除,重启ES服务

3、对未分配的分片进行重新路由的方式,手动分配。

4、重新索引(这种方式没有测试过对未分配的分片是否有效)

Lucene索引文件介绍

cd elasticsearch/data/node/0/indices/xxxx/$shard/index某个目录下,存放分片的多个segments。如下所示

Name Extension Description
Term Index .tip 词典索引(需加载进内存)
Term Dictionary .tim 倒排表指针
Frequencies .doc 包含Term和频率的文档列表(倒排表)
Fields .fnm Field数据元信息
Field Index .fdx 文档位置索引(需加载进内存)
Field Data .fdt 文档值
Per-Document Values .dvd .dvm .dvm为DocValues元信息
.dvd为DocValue值
(默认情况下elasticsearch开启该功能用于快速排序、聚合等操作)

多节点集群搭建的elasticsearch.yml配置

cluster.name: elasticsearch
node.name: node-3   ###依次修改
node.master: true   ###当节点数>=3时 改为true 实现高可用。
node.data: true
network.host: 192.168.3.xxx
bootstrap.memory_lock: true   ###禁用SWAP,防止内存与磁盘进行交互,造成ES性能问题
http.port: 9200
transport.tcp.port: 9300
discovery.seed_hosts: ["192.168.3.147:9300","192.168.3.211:9300","192.168.3.xxx"]  ###所有节点加入该列表
cluster.initial_master_nodes: ["node-1","node-2","node-3"]   ##node.master:true 的节点都加入
discovery.zen.minimum_master_nodes:2    ###节点数>=3时,增加该配置防止脑裂问题
http.cors.enabled: true
http.cors.allow-origin: "*"
xpack.security.enabled: false
search.max_open_scroll_context: 1000000

om/developer/news/362991 “Elasticsearch搜索引擎性能调优”
3: https://www.cnblogs.com/technologykai/articles/11940806.html?ivk_sa=1024320u “Elasticsearch亿级数据检索案例与原理”
4: https://mincong.io/cn/elasticsearch-corrupted-index/ “修复elasticsearch中损坏的索引”
5: https://segmentfault.com/a/1190000004504225 “如何防止脑裂问题”

Elasticsearch集群扩容踩坑记录相关推荐

  1. SPark高集群从头到尾踩坑记录

    环境:ubuntu16.04:spark2.4.7:zookeeper3.4.9:虚拟机四台 安装过程:zookeeper是在node1,node2,node3上安装,spark是在node1,nod ...

  2. Vertica集群扩容实验过程记录

    需求: 将3个节点的Vertica集群扩容,额外增加3个节点,即扩展到6个节点的Vertica集群. 实验环境: RHEL 6.5 + Vertica 7.2.2-2 步骤: 1.三节点Vertica ...

  3. redis集群搭建踩坑笔记

    推荐参考教程:https://blog.csdn.net/pucao_cug/article/details/69250101 错误: from /usr/lib/ruby/2.3.0/rubygem ...

  4. 阿里云学生机搭建spark、hadoop集群(踩坑之路)

    服务器:三台阿里云学生机(三个账号,都在华南1c) 系统:ubuntu 一.通过外网ip登录服务器 需要修改安全组,出入方向都一样,都加入这两条.为何加这两条后续慢慢说明. 第一条安全组功能之一就是为 ...

  5. CentOS7 使用 kubeadm 搭建 kubernetes 集群(踩坑篇)

    序言 本人在搭建 k8s 集群的过程中曲折不断,故写下此文,欲与"同是天涯沦落人"分享. 这篇文章会详细描述安装过程中遇到的问题,以及本人相应的解决办法,如读者只想快速搭建 k8s ...

  6. Elasticsearch集群跨机房迁移方案

    目录 背景介绍 1 A机房elasticsearch集群基本情况 2 在B机房完成elasticsearch集群扩容 2.1 扩容规划 2.2 启动非master节点 2.3 通知业务修改集群连接地址 ...

  7. linux系统下安装elasticsearch集群踩过的坑

    公司之前用的solr发现不太好用准备替换成es于是乎开始大刀阔斧的更换搜索服务器,本着有新版本不用旧版本的原则,所以刚搭好的基础环境,又得重新部署一遍.(重要的事记得说三遍!!! 记笔记真的很重要,好 ...

  8. 完美避坑!记一次Elasticsearch集群迁移架构实战

    作者介绍 李猛(ynuosoft),Elastic-stack产品深度用户,ES认证工程师,2012年接触Elasticsearch,对Elastic-Stack开发.架构.运维等方面有深入体验,实践 ...

  9. elasticsearch 集群在线水平扩容收缩

    2019独角兽企业重金招聘Python工程师标准>>> 服务器信息 elasticsearch版本 1.6.0 jdk版本 1.7.0_80 10.100.0.29 es1 10.1 ...

最新文章

  1. 打工与创业残忍的区别
  2. No module named ‘sklearn.utils.linear_assignment_‘
  3. 传统IDC转型有了新思路 Zstack除了混合云还有托管云
  4. TOMCAT启动到一半停止如何解决
  5. 质问微软 WP8.1开发HTTPS 真费劲
  6. GitHub标星近10万:只需5秒音源就能实时“克隆”你的声音!
  7. Maven中的自定义settings.xml文件
  8. springmvc返回html页面_深入浅出SpringMVC系列~
  9. 计算机网络信息安全保密制度,档案馆计算机网络系统和信息安全保密制度
  10. STC 18B20温度传感器读写程序
  11. pyltp的基本用法和语义角色标注
  12. 网传互联网公司大裁员
  13. TI DSP 28335 eCAP 测量脉冲占空比
  14. next主题搭建相册(无需安装插件,代码即可实现)
  15. 物联网概念火热,靠技术如何落地?
  16. 【oracle】oracle11g 搭建
  17. 从永远到永远-Navicat将MySQL数据库复制到另一个Mysql数据库
  18. 介绍Java -D 命令行参数
  19. Android系统移植与调试之-------)如何修改Android手机NFC模块,使黑屏时候能够使用NFC
  20. 3526:最简真分数 ①

热门文章

  1. 阿尔茨海默病de饮食-微生物-脑轴
  2. PHP7.1 mcrypt_module_open() is deprecated
  3. web前端是什么?需要掌握什么技术
  4. Linux命令--lsof
  5. 《图像处理实例》 之 局部极值提取
  6. java IO流基础 万字详解(从拷贝文件到模拟上传头像)
  7. 与时间和频率测量有关的一些重要概念(抖动,游走,MTIE、TDEV)
  8. Docker: 绿色版docker(带dockerui)安装测试记录_20200120_七侠镇莫尛貝
  9. BI工具对比|Smartbi与亿信ABI两款BI数据看板软件对比
  10. 自控力读书笔记 第五章 大脑的弥天大谎:为什么我们误把渴望当幸福?