惭入佳境之HADOOP的NAMENODE不能正常启动的问题解决
注意到以下错误行不?
java.io.FileNotFoundException: /app/hadoop/tmp/dfs/name/current/VERSION (Permission denied)
印象中,刚才用ROOT帐号试着启动了一下。
X,我再换回HDUSER用户就不行了。
进入VERSION目录一看,原来每次启动之后,NAME目录下的属性会变成启动用户ROOT的。
于是更改回HDUSER。
一切OK。
~~~~~~~~~~~~~~~~~~~~~~~
2013-04-11 01:52:51,606 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = Master/192.168.7.238
STARTUP_MSG: args = []
STARTUP_MSG: version = 1.1.2
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013
************************************************************/
2013-04-11 01:52:53,212 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties
2013-04-11 01:52:53,324 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source MetricsSystem,sub=Stats registered.
2013-04-11 01:52:53,333 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).
2013-04-11 01:52:53,333 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system started
2013-04-11 01:52:55,098 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source ugi registered.
2013-04-11 01:52:55,408 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source jvm registered.
2013-04-11 01:52:55,442 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source NameNode registered.
2013-04-11 01:52:55,771 INFO org.apache.hadoop.hdfs.util.GSet: VM type = 64-bit
2013-04-11 01:52:55,772 INFO org.apache.hadoop.hdfs.util.GSet: 2% max memory = 19.33375 MB
2013-04-11 01:52:55,772 INFO org.apache.hadoop.hdfs.util.GSet: capacity = 2^21 = 2097152 entries
2013-04-11 01:52:55,772 INFO org.apache.hadoop.hdfs.util.GSet: recommended=2097152, actual=2097152
2013-04-11 01:52:56,135 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: fsOwner=hduser
2013-04-11 01:52:56,136 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: supergroup=supergroup
2013-04-11 01:52:56,136 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: isPermissionEnabled=true
2013-04-11 01:52:56,219 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: dfs.block.invalidate.limit=100
2013-04-11 01:52:56,220 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
2013-04-11 01:52:58,978 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Registered FSNamesystemStateMBean and NameNodeMXBean
2013-04-11 01:52:59,185 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: Caching file names occuring more than 10 times
2013-04-11 01:52:59,351 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed.
java.io.FileNotFoundException: /app/hadoop/tmp/dfs/name/current/VERSION (Permission denied)
at java.io.RandomAccessFile.open(Native Method)
at java.io.RandomAccessFile.<init>(RandomAccessFile.java:233)
at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:219)
at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:215)
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:314)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:100)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:411)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:379)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:284)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:536)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1410)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1419)
2013-04-11 01:52:59,418 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.FileNotFoundException: /app/hadoop/tmp/dfs/name/current/VERSION (Permission denied)
at java.io.RandomAccessFile.open(Native Method)
at java.io.RandomAccessFile.<init>(RandomAccessFile.java:233)
at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:219)
at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:215)
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:314)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:100)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:411)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:379)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:284)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:536)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1410)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1419)
2013-04-11 01:52:59,437 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at Master/192.168.7.238
************************************************************/
惭入佳境之HADOOP的NAMENODE不能正常启动的问题解决相关推荐
- Hadoop之NameNode和SecondaryNameNode工作机制详解
Hadoop之NameNode和SecondaryNameNode工作机制详解 NN和2NN工作机制 NN和2NN工作机制详解 Fsimage和Edits解析 checkpoint时间设置 1. NN ...
- Hadoop切换namenode为active
hadoop切换namenode为active 进入hadoop/bin目录下 ./yarn rmadmin -transitionToActive --forcemanual rm1 重新启动zkf ...
- Hadoop中Namenode单点故障的解决方案
Hadoop中Namenode单点故障的解决方案 需求: 实现namenode元数据的备份,解决namenode单点宕机导致集群不可用的问题. 方案描述: 当namenode所在服务器宕机的时候,我们 ...
- Hadoop集群启动时,nameNode进程没有启动 :Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)解决方法
前言 今天搭建Hadoop集群的最后,启动hadoop集群后,发现nameNode进程并没有启动,基于相信自己的原则,我一直认为我已经将生成的公钥添加到本地的认证文件中,排查了半天,最终还是选择,查看 ...
- 【hadoop】NameNode和SceondaryNameNode的工作机制
一. 为什么会存在这样的工作机制? 1.NameNode中的元数据是存储在哪里的? (1)若是存储在NN节点的磁盘中,因为经常需要进行随机访问,或者是不断的被访问,还有要响应客户请求,效率必然很低,所 ...
- namenode启动异常问题解决
HA集群配置完成并启动后,namenode不能正常启动.刚启动的时候 jps看到了namenode,但是隔了一两分钟,再看namenode就不见了.如果不启动journalnode,namenode运 ...
- 大数据学习笔记之一:Hadoop 常用指令集合与启动注意项
常用指令集合: 0. 配置 Hadoop 的 PATH 变量: vim ~/.bashrc export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/had ...
- Hadoop集群安全性:Hadoop中Namenode单点故障的解决方案及详介AvatarNode
2019独角兽企业重金招聘Python工程师标准>>> 正如大家所知,NameNode在Hadoop系统中存在单点故障问题,这个对于标榜高可用性的Hadoop来说一直是个软肋.本文讨 ...
- hadoop中NameNode、DataNode和Client三者之间协作关系及通信方式介绍
<ignore_js_op> 1)NameNode.DataNode和Client NameNode可以看作是分布式文件系统中的管理者,主要负责管理文件系统的命名空间.集 ...
最新文章
- 浅析影响网站建设的因素有哪些?
- Linux GCC lib库相互引用,互相依赖(交叉引用)链接解决办法
- 二、Netty服务端/客户端启动整体流程
- java uml聚合代码_UML类图(下):关联、聚合、组合、依赖
- linux 共享库目录,Linux共享库
- Python标准库中的shutil
- MarkDown、Vim双剑合璧
- 冰城环保进入智慧时代
- Lanenet论文解读
- 【Linux 内核网络协议栈源码剖析】网络栈主要结构介绍(socket、sock、sk_buff,etc)...
- php视频教程打包下载 - 网络上最好的php视频教程
- Java将彩色PDF转为灰度
- 用计算机怎么汇款,工行批量转账工具怎么用,要详细的步骤。
- gigabyte计算机主板图解,以技嘉主板为例!什么是跳线? 图解主板跳线接法
- 使用qemu进行路由器环境的虚拟搭建
- wireshark抓包实验 分析 详解
- 电脑资料如何转移到新电脑?教你3种数据迁移技巧
- 使用OpenWrt创建子网作为二级路由
- 媒体揭露互联网“账号黑市”:百倍暴利
- 工业相机标定(张正友标定法)