云梯开发人员在云梯Yarn集群的搭建和维护过程中做了许多工作,本文选择这期间部分较为典型的问题,通过对这些问题的分析和解决方案,为大家分享分布式系统问题调查的经验。

调查的问题

1. 2013年初引入社区0.23时,调查ResourceManager运行过程汇总突然挂掉的问题

现象:监控报警,线上运行的RM突然挂掉,RM异常日志如下,

2012-12-17 17:20:28,294 FATAL org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: Error in handling event type APP_REMOVED to the scheduler

java.lang.NullPointerException

at org.apache.hadoop.yarn.server.resourcemanager.scheduler.SchedulerApp.unreserve(SchedulerApp.java:390)

at org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler.completedContainer(FairScheduler.java:590)

at org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler.removeApplication(FairScheduler.java:546)

at org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler.handle(FairScheduler.java:871)

at org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler.handle(FairScheduler.java:80)=

at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager$SchedulerEventDispatcher$EventProcessor.run(ResourceManager.java:340)

at java.lang.Thread.run(Thread.java:662)

处理方法:启动RM继续提供服务,记录bug,开始调查。

调查过程:社区暂无此问题,需要自己分析。

a.分析,查看异常之前的代码,还发现一些其他异常,Error in handling event type NODE_UPDATE to the scheduler,RM的调度器处理Node更新的时候出现NPE,根据异常和代码判断出在AppSchedulable#assignContainer中 在reserved=true的情况下,获取的container的priority和传入的priority不一致导致的。通俗的讲,就是调度器有预订机制,另外在分配资源的时候每个container都有优先级,如果一个应用有在一个NM上预订一个优先级为X的container,另外一个等待的container优先级为更高的Y,当这个NM发生心跳给RM说,可以向它调度一个container,这时调度器本想找一个优先级更高的Y调度到该节点上,却没有找到,导致NPE。

解决方案:调度器应该优先找一个已经预订在该节点上的container分配给该节点,其次才是选择高优先级的container。不过就在我们调查出并解决的时候Apache Hadoop社区也刚好遇到并提供解决方案,因此最终没有贡献给社区。

2. 调查某些情况下RM不调度的问题

现象:RM能接收提交的作业,但是集群中所有作业都无法被调度,日志也没有异常。

调查过程:Dump出RM的进程栈,发现RM处于死循环状态。查看死循环部分的代码,原因是 调度器每次分配一个container给NM,然后对app排序,继续下一次的分配,如果调度器只是把container预订到该NM上,调度器没有调度任务给该NM,对app排序,进行下一次分配,这样就RM进入了死循环,无法工作。

解决方案:如果把某个container预订到NM上,也应该认为分配了相应的任务,退出循环。贡献给社区,YARN-300。

3. 调查RM异常退出的问题

现象:监控报警,线上运行的RM突然挂掉,RM异常日志如下:

2012-12-30 17:14:17,171 FATAL org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: Error in handling event type NODE_UPDATE to the scheduler

java.util.ConcurrentModificationException

分析过程:异常是两个线程同时对一个对象进行操作,一个线程有加锁,另外一个线程没有加锁,导致异常的出现。

解决方案:两个线程都在调用该对象前加锁。贡献给社区,YARN-301

4. 调查网页上显示FairScheduler调度资源不准确的问题

现象:RM网页上显示调度信息不准确,资源使用量越来越大,已经超过集群资源量(内存)。

原因:reserve的时候增加三次,unreserve的时候减少两次,导致数字越来越大。

解决:reserve与unreserve应该相对应,增加多少就得减少多少。社区也有相应的问题,暂未贡献给社区。

5. 客户端提交作业后一直hang着,没反应

现象:用户提交一个作业到RM的某个组,但是RM上配置这个组不接受这个用户作业,这时候客户端一直hang这没反应。

原因:原因是以为RM判断出不允许的作业时,没有做如何处理,导致客户端一直hang着。

解决:增加处理机制,返回给客户端相应的出错信息。贡献给社区 YARN-319。

还有一些RM挂掉的问题,社区刚好解决,我们直接引入,如

https://issues.apache.org/jira/browse/YARN-335 RM出现NPE挂掉

https://issues.apache.org/jira/browse/MAPREDUCE-4144 RM处理Node更新的时候出现NPE

6. 引入Cgroup使Yarn支持对CPU的调度和隔离。

问题:Spark应用是内存密集型,但是对CPU要求不高,而MPI对CPU要求多,只有内存的调度不够。

设计:社区提供的Cgroup,支持CPU的隔离和调度。引入这部分后,我们遇到一个比较严重的问题,它要求NM创建账户,这从运维角度上来说是不可行的,它的目的是为了安全性,但是对内部应用来说必要性不大,另外Cgroup对CPU的隔离不依赖多账户,因此通过修改一个container-executor.c,防止启动container的时候修改账户,而是使用一个统一的账户运行container,即能满足安全需要,又能减少运维人员的工作量。

7. MRApplicationMaster初始化性能优化

问题:MRApplicationMaster初始化很慢。

分析:通过调查发现慢在解析rack上,由于集群大,datanode多,MRApplicationMaster启动的时候会初始化map task,这时候会频繁调用解析脚本,导致初始化慢,严重影响作业的运行时间

解决方案:通过在每个NM上增加一个包含所有datanode的机器名和rack对应信息的文件,MRApplicationMaster启动的时候读取这个文件,防止频繁调用解析脚本,大大加快了作业初始化速度。

经验总结

Hadoop类似的分布式开源框架,出问题还是比较常见的,关键是出问题后如何解决,

a. 一般情况下首先到社区寻找类似的问题,如果已经解决则直接引入即可

b. 如果社区没有解决,那么就需要自己分析,如果是bug问题,则需要通过分析日志和代码,最好能在测试集群上重现相应的问题,若能重现,则通过远程调试或增加打印日志的方式分析相应的问题。找到原因后解决方案则是多种多样的,要结合自己的实际情况选择解决方案。

c. 如果是性能问题,则需要分析性能瓶颈,慢在哪一块,慢在哪一步,慢在哪行代码,多向自己提出这几个问题,则能一步步的定位性能瓶颈,然后就需要创新性的提出一些优化方案。

所以在分布式应用中,无论是bug调查还是性能问题,关键都在于定位原因,原因找到后解决才能确定解决方案。

转载于:https://www.cnblogs.com/shenh062326/p/3550794.html

YARN集群维护部分问题汇总相关推荐

  1. YARN集群的mapreduce测试(一)

    hadoop集群搭建中配置了mapreduce的别名是yarn [hadoop@master01 hadoop]$ mv mapred-site.xml.template mapred-site.xm ...

  2. spark提交到yarn_详细总结spark基于standalone、yarn集群提交作业流程

    最近总结了一些关于spark core的内容,今天先来和大家分享一下spark的运行模式. spark运行模式 (1)local:在本地eclipse.IDEA中写spark代码运行程序,一般用于测试 ...

  3. pythonspark集群模式运行_有关python numpy pandas scipy 等 能在YARN集群上 运行PySpark

    有关这个问题,似乎这个在某些时候,用python写好,且spark没有响应的算法支持, 能否能在YARN集群上 运行PySpark方式, 将python分析程序提交上去? Spark Applicat ...

  4. Spark On YARN 集群安装部署

    2019独角兽企业重金招聘Python工程师标准>>> 最近毕设需要用到 Spark 集群,所以就记录下了部署的过程.我们知道 Spark 官方提供了三种集群部署方案: Standa ...

  5. hadoop yarn集群HA安装及配置

    单机部署 官网文档 https://hadoop.apache.org/docs/r2.9.2/hadoop-project-dist/hadoop-common/SingleCluster.html ...

  6. 基于YARN集群构建运行PySpark Application

    文章转载:https://www.tuicool.com/articles/eaYVN3v Spark Application可以直接运行在YARN集群上,这种运行模式,会将资源的管理与协调统一交给Y ...

  7. hadoop yarn 集群配置

    yarn基本概念 yarn是负责调度mapreduce程序,hdfs是负责存储数据 1.Resource Manager 接受用户提交的分布式计算程序,并为其划分资源 管理.监控各个Node Mana ...

  8. Yarn篇--搭建yarn集群

    一.前述 有了上次hadoop集群的搭建,搭建yarn就简单多了.废话不多说,直接来 二.规划 三.配置如下 yarn-site.xml配置 <property>         < ...

  9. yarn集群下启动spark错误WARN:66 - Neither spark.yarn.jars nor spark.yarn.archive is set

    yarn集群下启动spark错误如下: WARN  Client:66 - Neither spark.yarn.jars nor spark.yarn.archive is set, falling ...

最新文章

  1. linux常用命令汇总(pwd,echo,history,nano)
  2. 实战01_SSM整合ActiveMQ支持多种类型消息
  3. 信息学奥赛一本通C++语言——1053:最大数输出
  4. [转载] 的士速递3
  5. nvm装node npm
  6. linux find mtime 用法,Linux find命令常见用法汇总(4)
  7. 鸢尾花数据集的各种玩法
  8. ObjectiveC基础教程(第2版)
  9. C语言——计算标准差公式
  10. 华为机试--火车进站
  11. 【JZOJ3339】wyl8899和法法塔的游戏【暴力】
  12. 对人工智能的一点看法
  13. (自己收藏)全面理解面向对象的 JavaScript
  14. ubuntu解决菜单栏和工具栏消失的方案
  15. mysql 大于当前时间条件查询
  16. mysql 表分区 查看表分区 修改表分区
  17. Linux应用编程和网络编程(3)------- Linux中文件的属性
  18. 缩短汽车服务企业供销链,数商云经销商平台渠道订货模块打造企业销售新模式
  19. Python基础(0)
  20. OpenHarmony学习笔记——点亮你的LED

热门文章

  1. jupyter安装与初探
  2. ios单应用模式_如何为iOS 13暗模式设置应用
  3. autowired java_Java 基础之Autowired 是否是自动注入
  4. 5 zabbix 添加host_运维监控实战篇,zabbix自动发现和自动注册图文详解
  5. 利用spring aop统一处理异常和打日志
  6. 源码阅读:SDWebImage(六)——SDWebImageCoderHelper
  7. mysqldump和xtrabackup备份原理实现说明
  8. javascript promise编程
  9. Selenium2+python自动化25-js处理日历控件(修改readonly属性)
  10. 关于本分类(codeforces-好题系列)