Hadoop集群报错解决及hadoop fs 的常用操作
目录
一,报错的解决
1,进入目录
2,删除数据
3,关闭集群
4,格式化元数据
5,启动集群
二,Hadoop常用shell操作
1,命令的帮助
2,显示目录
3,创建目录
4,移动
5,追加内容
6,查看文件
7,权限
8,复制
9,下载
10,hdfs内复制
11,hdfs内移动
12,下载
13,合并下载
14,上传
15,删除
16,统计大小
17,设置备份
一,报错的解决
hadoop集群报错如何解决
我们搭建的Hadoop集群再启动,重启,以及运维的时候经常报各种各样的错误,有很多我们也看不明白,网上也很难找到相关的文章,即使找到也未必适用,所有就给大家总结了一个算是比较常用,也非常有用的一种方法,当我们的集群报错看不懂时,可以做如下操作
注意三台节点都是要同步操作的,也可以现在master节点做完之后,再重新分发到剩余两个节点,这是至关重要的一步。
1,进入目录
进入到hadoop和java的安装目录下ll一下
一般情况下这两个目录的权限都不是所有用户均可读写执行,我们用root用户把他改成777。
cd /opt/local/src/
ll
chmod 777 -R /opt/local/src/
2,删除数据
进入hadoop安装目录中,这里用哪个用户来操作都无所谓了,因为上边权限都是777,把目录下的dfs和tmp都删掉,然后只重新创建tmp目录
cd /opt/local/src/hadoop/
ls
rm -rf dfs
rm -rf tmp
mkdir tmp
一定要记得这一步是三个节点要同步,记得scp过去。
3,关闭集群
关闭集群所有进程,一定要看看是否三个节点都没有进程启动了
stop-all.sh
4,格式化元数据
一定要看一下三个节点的status是不是都为0
hdfs namenode -format
5,启动集群
最好一个一个的启动,尽量不要用start
start-dfs.sh
start-yarn.sh
再输入jps查看三个节点进程,
自此错误修改完毕,还有一点就是,每次关闭集群进程的时候建议先stop-all.sh,确保每个节点的所有进程都关闭。
二,Hadoop常用shell操作
文件目录的增删改查
1,命令的帮助
hadoop fs -help 命令:输出这个命令参数
hadoop fs -help rm
2,显示目录
hadoop fs -ls 路径: 显示目录信息
hadoop fs -ls /
3,创建目录
hadoop fs -mkdir 目录名:在hdfs上创建目录
hadoop fs -mkdir -p /sanguo/shuguo
操作并查看:
4,移动
hadoop fs -moveFromLocal 本地目录 目的目录 :从本地剪切粘贴到hdfs
touch kongming.txt
hadoop fs -moveFromLocal ./kongming.txt /sanguo/shuguo
操作并查看:
5,追加内容
hadoop fs -appendToFile 要追加的文件 追加到哪个文件 :追加一个文件到已经存在的文件末尾
touch liubei.txtvi liubei.txt
输入
san gu mao lu
也可以用echo简答快捷,结果都一样
echo "san gu mao lu " > kongming.txt
hadoop fs -appendToFile liubei.txt /sanguo/shuguo/kongming.txt
6,查看文件
hadoop fs -cat 要查看的文件路径:显示文件内容
hadoop fs -cat /sanguo/shuguo/kongming.txt
hadoop fs -tail 要查看的文件路径:显示一个文件的末尾
hadoop fs -tail /sanguo/shuguo/kongming.txt
7,权限
hadoop fs -chgrp 、-chmod、-chown:linux文件系统中的用法一样,修改文件所属权限
hadoop fs -chmod 666 /sanguo/shuguo/kongming.txt
hadoop fs -chown hadoop:hadoop /sanguo/shuguo/kongming.txt
8,复制
hadoop fs -copyFromLocal 本地文件:从本地文件系统中拷贝文件到hdfs路径去
hadoop fs -copyFromLocal README.txt /
操作并查看:
9,下载
hadoop fs -copyToLocal:从hdfs拷贝到本地
hadoop fs -copyToLocal /sanguo/shuguo/kongming.txt ./
10,hdfs内复制
hadoop fs -cp 源地址 目标地址 :从hdfs的一个路径拷贝到hdfs的另一个路径
hadoop fs -cp /sanguo/shuguo/kongming.txt /zhuge.txt
操作并查看:
11,hdfs内移动
hadoop fs -mv 源地址 目的地址:在hdfs目录中移动文件
hadoop fs -mv /zhuge.txt /sanguo/shuguo/
操作并查看:
12,下载
hadoop fs -get hdfs内路径 本地路径:等同于copyToLocal,就是从hdfs下载文件到本地
hadoop fs -get /sanguo/shuguo/kongming.txt ./
13,合并下载
hadoop fs -getmerge :合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
hadoop fs -getmerge /sanguo/shuguo/* ./jpz
14,上传
hadoop fs -put:等同于copyFromLocal
hadoop fs -put ./jpz.txt /sanguo/shuguo/
操作并查看:
15,删除
hadoop fs -rm :删除文件或文件夹
hadoop fs -rm /sanguo/shuguo/*
操作并查看:
hadoop fs -rmdir:删除空目录
hadoop fs -rmdir /sanguo/shuguo
操作并查看:
删除非空目录
hadoop fs -rmr -skipTrash /sanguo
操作并查看:
16,统计大小
hadoop fs -du:统计文件夹的大小信息
hadoop fs -du -s -h /jpz/txt
17,设置备份
hadoop fs -setrep:设置hdfs中文件的副本数量
hadoop fs -setrep 10 /jpz.txt
登录网页查看数量
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。
Hadoop集群报错解决及hadoop fs 的常用操作相关推荐
- 启动hadoop集群报错ERROR: Cannot set priority of namenode process 2570
在格式化集群正常的情况下启动hadoop集群,但是却启动不起来,jps查看进程也是没有进程的: 查看log定位问题: [root@hadoop320_01 logs]# cat hadoop-root ...
- spark 序列化错误 集群提交时_【问题解决】本地提交任务到Spark集群报错:Initial job has not accepted any resources...
本地提交任务到Spark集群报错:Initial job has not accepted any resources 错误信息如下: 18/04/17 18:18:14 INFO TaskSched ...
- HBase停止集群报错,pid: No such file or directory
HBase停止集群报错,pid不存在的问题 停止HBase集群时报错如下: [plain] stopping hbasecat: /tmp/hbase-mango-master.pid: No su ...
- dfs.datanode.max.xcievers参数导致hbase集群报错
2013/08/09 转发自http://bkeep.blog.163.com/blog/static/123414290201272644422987/ [案例]dfs.datanode.max.x ...
- redis创建集群报错can‘t connect to node 192.168.163.203
[README] 创建集群报错 can't connect to node 192.168.163.203 [root@centos201 ~]# /usr/local/redis-cluster/b ...
- kubeadm初始化集群报错:kubelet driver: “cgroupfs“ is different from docker cgroup driver: “systemd“
kubeadm初始化集群报错: 报错信息如下: [kubelet-check] It seems like the kubelet isn't running or healthy. [kubel ...
- quartz集群报错but has failed to stop it. This is very likely to create a memory leak.
quartz集群报错but has failed to stop it. This is very likely to create a memory leak. 在一台配置1核2G内存的阿里云服务器 ...
- nginx集群报错“upstream”directive is not allow here 错误 [
nginx集群报错"upstream"directive is not allow here 错误 搭建了一个服务器, 采用的是nginx + apache(多个) + php + ...
- eclipse链接Hadoop集群时报错Error:Call From xxx/xxx.xxx.xxx.xxx to hostname1:9000 failed on connection excep
今天用eclipse连接Hadoop集群的时候突然给我报了这样一个错误:Error:Call From xxx/xxx.xxx.xxx.xxx to hostname1:9000 failed on ...
- Hadoop集群搭建(五:Hadoop HA集群模式的安装)
实验 目的 要求 目的: 1.Hadoop的高可用完全分布模式的安装和验证 要求: 完成Hadoop的高可用完全分布模式的安装: Hadoop的相关服务进程能够正常的启动: HDFS能够正常的使用: ...
最新文章
- springboot html引入js_SpringBoot-05-web开发
- python小技巧:获取字典中值最大者的key
- 数据库服务器(SQL SERVER)的安全设置
- Struts2中action接受参数方法
- RTKLIB的主要功能
- JavaScript | 将十进制转换为十六进制,反之亦然
- Synchronize和ReentrantLock区别
- java功能模块_Java 13功能
- javascript高级程序设计读书笔记——事件总结
- 如何使用计算机讲解ppt,如何录制PPT讲解视频?
- 使用curl自动签到百度贴吧
- Sklearn 卡方检验
- 一个很实用的计时时钟和消息提醒
- AI应用第一课:支付宝刷脸登录
- 萤光云香港三区服务器测评
- 电磁场与电磁波 面电流和体电流磁感应强度的计算
- Oracle数据库cmd登陆
- 兄弟打印机打印不清楚
- 关于ASCII码和ANSI码,以下说法不正确的是()?
- C++基础之运算符重载
热门文章
- Vue + Element-UI —— 项目实战(一)
- re模块中group()与groups()用法
- 程序员的第一款 Hello World
- python 获取复数的实部和虚部
- bc547可以用8050代换吗_常用三极管代换型号
- 专精特新是什么,为什么要申报“专精特新”中小企业
- html超链接下划线改虚线_怎么把下划线变成虚线
- win10计算机图标怎么放桌面壁纸,win10系统桌面图标显示和背景修改的具体方法...
- 电视html接口,HDMI是什么接口?
- H264三种码率控制方法(CBR, VBR, CVBR,)CRF和CQP