Hadoop数据目录迁移

@(Hadoop)


随着数据的不断导入和增大,原本集群部署的目录磁盘空间不足了,所以要把hadoop存储数据的位置迁移到另外一个巨大的磁盘上,另外的一个用意是将数据和程序分离开,以免互相影响。

以下是迁移过程和需要注意的一些地方:

动手之前先把集群停止,如果有hbase也一起停了,因为hbase的存储是依赖于hdfs的,如果没有停止就进行目录迁移hbase会出现错误。

修改配置文件

hadoop最重要的存储数据的配置在core-site.xml文件中设置,修改core-site.xml的hadoop.tmp.dir值为新磁盘的路径即可。

考虑到数据和程序的分离,决定将那些会不断增长的文件都迁移出去,包括:日志文件,pid目录,journal目录。

日志文件和pid目录在hadoop-env.sh中配置,export HADOOP_PID_DIR,HADOOP_LOG_DIR为对应磁盘路径即可。

journal目录在hdfs-site.xml中配置dfs.journalnode.edits.dir

同理,yarn和hbase的log和pid文件路径都可在*_env.sh文件中export设置

改完Hadoop的配置文件之后将其拷贝到hbase/conf目录下

hbase的日志文件和pid目录配置在hbase-daemon.sh的HBASE_PID_DIR,HBASE_LOG_DIR

spark日志文件的pid目录在spark-env.sh的SPARK_PID_DIR,SPARK_LOG_DIR

修改完之后拷贝配置文件到各个子节点。

并将原始数据目录、日志目录和pid目录移动至新磁盘中,重新启动集群,查看输出信息是否正确。

更新

hdfs-site.xml中更新的配置:

<property>
<name>dfs.name.dir</name>
<value>/data2/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/data2/hadoop/hdfs/data</value>
</property>

分别是存储hdfs元数据信息和数据的目录,如果没有配置则默认存储到hadoop.tmp.dir中。

格式化hdfs系统之后,hbase启动异常,HMaster自动退出。

日志信息:

2016-01-15 14:01:38,231 DEBUG [MASTER_SERVER_OPERATIONS-zx-hadoop-210-11:60000-4] master.DeadServer: Finished processing zx-hadoop-210-24,60020,1452828414814
2016-01-15 14:01:38,231 ERROR [MASTER_SERVER_OPERATIONS-zx-hadoop-210-11:60000-4] executor.EventHandler: Caught throwable while processing event M_SERVER_SHUTDOWN
java.io.IOException: failed log splitting for zx-hadoop-210-24,60020,1452828414814, will retryat org.apache.hadoop.hbase.master.handler.ServerShutdownHandler.resubmit(ServerShutdownHandler.java:322)at org.apache.hadoop.hbase.master.handler.ServerShutdownHandler.process(ServerShutdownHandler.java:202)at org.apache.hadoop.hbase.executor.EventHandler.run(EventHandler.java:128)at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)at java.lang.Thread.run(Thread.java:745)
Caused by: java.io.IOException: error or interrupted while splitting logs in [hdfs://ns1/hbase/WALs/zx-hadoop-210-24,60020,1452828414814-splitting] Task = installed =1 done = 0 error = 0at org.apache.hadoop.hbase.master.SplitLogManager.splitLogDistributed(SplitLogManager.java:362)at org.apache.hadoop.hbase.master.MasterFileSystem.splitLog(MasterFileSystem.java:410)at org.apache.hadoop.hbase.master.MasterFileSystem.splitLog(MasterFileSystem.java:384)at org.apache.hadoop.hbase.master.MasterFileSystem.splitLog(MasterFileSystem.java:282)at org.apache.hadoop.hbase.master.handler.ServerShutdownHandler.process(ServerShutdownHandler.java:195)... 4 more
2016-01-15 14:01:38,232 INFO  [master:zx-hadoop-210-11:60000-EventThread] zookeeper.ClientCnxn: EventThread shut down
2016-01-15 14:01:38,232 INFO  [master:zx-hadoop-210-11:60000.oldLogCleaner] zookeeper.ZooKeeper: Session: 0x25243ddd648000a closed
2016-01-15 14:01:38,232 DEBUG [MASTER_SERVER_OPERATIONS-zx-hadoop-210-11:60000-4] master.DeadServer: Finished processing zx-hadoop-210-22,60020,1452828414925
2016-01-15 14:01:38,233 ERROR [MASTER_SERVER_OPERATIONS-zx-hadoop-210-11:60000-4] executor.EventHandler: Caught throwable while processing event M_SERVER_SHUTDOWN
java.io.IOException: Server is stoppedat org.apache.hadoop.hbase.master.handler.ServerShutdownHandler.process(ServerShutdownHandler.java:183)at org.apache.hadoop.hbase.executor.EventHandler.run(EventHandler.java:128)at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)at java.lang.Thread.run(Thread.java:745)
2016-01-15 14:01:38,338 DEBUG [master:zx-hadoop-210-11:60000] catalog.CatalogTracker: Stopping catalog tracker org.apache.hadoop.hbase.catalog.CatalogTracker@6c4b58f0
2016-01-15 14:01:38,338 INFO  [master:zx-hadoop-210-11:60000] client.HConnectionManager$HConnectionImplementation: Closing zookeeper sessionid=0x15243ddd6340004
2016-01-15 14:01:38,343 INFO  [master:zx-hadoop-210-11:60000] zookeeper.ZooKeeper: Session: 0x15243ddd6340004 closed
2016-01-15 14:01:38,343 INFO  [master:zx-hadoop-210-11:60000-EventThread] zookeeper.ClientCnxn: EventThread shut down
2016-01-15 14:01:38,343 INFO  [zx-hadoop-210-11,60000,1452837685871.splitLogManagerTimeoutMonitor] master.SplitLogManager$TimeoutMonitor: zx-hadoop-210-11,60000,14528
37685871.splitLogManagerTimeoutMonitor exiting
2016-01-15 14:01:38,347 INFO  [master:zx-hadoop-210-11:60000] zookeeper.ZooKeeper: Session: 0x35243ddd73b0001 closed
2016-01-15 14:01:38,347 INFO  [main-EventThread] zookeeper.ClientCnxn: EventThread shut down
2016-01-15 14:01:38,347 INFO  [master:zx-hadoop-210-11:60000] master.HMaster: HMaster main thread exiting
2016-01-15 14:01:38,350 ERROR [main] master.HMasterCommandLine: Master exiting
java.lang.RuntimeException: HMaster Abortedat org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMasterCommandLine.java:192)at org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandLine.java:134)at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)at org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLine.java:126)at org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:2785)
Fri Jan 15 14:15:02 CST 2016 Starting master on zx-hadoop-210-11

解决方法

  • 1.切换到zookeeper的bin目录
  • 2.执行$sh zkCli.sh
ls /
rmr /hbase
quit

重启hbase。

作者:@小黑

转载于:https://www.cnblogs.com/jchubby/p/5449357.html

Hadoop数据目录迁移相关推荐

  1. Hadoop数据迁移解决方案 上

    Hadoop数据迁移解决方案 数据迁移场景 冷热集群数据同步.分类存储 集群数据整体迁移 数据的准时同步 数据迁移考虑的因素 Bandwidth-带宽 带宽用多会影响到线上业务的任务运行,带宽用的少会 ...

  2. CentoS8 Mysql8 数据目录迁移

    Mysql数据库数据目录迁移 1 声明 本文的数据来自网络,部分代码也有所参照,这里做了注释和延伸,旨在技术交流,如有冒犯之处请联系博主及时处理. 2 数据目录迁移简介 一般我们是通过rpm包的方式安 ...

  3. mysql8如何迁移_mysql8.0.11数据目录迁移的实现

    mysql的存储目录默认是在/var/lib/mysql/,下面将修改默认存储目录. 本文使用mysql8.0.11版本,与mysql8.0.20版本不同, 8.0.20版本的数据迁移请看另一篇博客 ...

  4. windows下mysql 数据目录迁移 经验

    mysql 安装完成以后,想修改数据目录,以下是容易出错的几个地方 1.将原数据目录迁移到新的目录 2.修改my.ini 时,必须保存为ANSI编码 3.修改datadir 时,必须按照原目录格式用/ ...

  5. Hadoop Hive迁移至MaxCompute

    本文向您详细介绍如何将 Hadoop Hive 数据迁移到阿里云MaxCompute大数据计算服务上. 一.环境准备 1.1.Hadoop集群环境 在进行 Hadoop Hive 数据迁移前,您需要保 ...

  6. CentOs MySQL数据目录迁移

    原mysql数据目录 /data/mysql 新mysql数据目录 /vdb/data/mysql 处理逻辑,将原mysql目录复制到新mysql目录,修改原mysql数据目录名字,在原地址做一个软连 ...

  7. /var/lib/docker/overlay2 占用很大,docker数据目录迁移

    1.查看磁盘使用情况docker system df [root@iZuf6ijiwyd0gil5jyti17Z ~]# docker system df TYPE TOTAL ACTIVE SIZE ...

  8. Mysql修改数据目录(迁移到挂载盘-5.7版本)

    由于目前业务数据日益增加,服务器系统盘空间小,目前已经装不下,而挂载盘还有很大的空间,所以考虑将mysql进行迁移.以下是迁移的过程,只修改了数据目录,数据库本身没有做修改. 尽管已经测试过,但是在迁 ...

  9. 华为云数据盘挂在及mysql数据库数据目录迁移到数据盘

    背景 前篇文章中安装了mysql,但是系统盘只有40G,以后肯定不够用,于是,又增加了200G的数据盘,那此时就需要挂在盘,并需要将mysql的数据存储移动到数据盘中 1.挂载 1)检查磁盘挂在 分明 ...

最新文章

  1. The Human Touch 将人工智能和机器人用于病人工作的实际和伦理意义
  2. 一秒完成充电,超级量子电池即将问世
  3. int main中char** argv与char *argv[]区别?(main函数)
  4. Makedown文件保存问题
  5. redis 永不过期_Redis系列八Redis数据过期策略详解
  6. 舒尔特表-5*5表格1-25个数字随机生成且不重复
  7. 汽车振动响应分析-机械阻抗法(含机械网络图,附程序)
  8. Java学习之JavaWeb篇
  9. 码率自适应算法深入浅出
  10. 信创操作系统--麒麟Kylin桌面版 (项目三 控制中心:账户、自定义、个性化、声音、日期、电源管理、网络、输入法、系统更新等设置)
  11. 计算机局域网组网技术的核心技术,自考“局域网技术与组网工程”模拟题(6)
  12. 函授计算机专业教育感想,函授学习心得体会(精选5篇)
  13. React中Mpegts播放器的使用
  14. vb UBound 数据上界
  15. 315,这是一场神奇的晚会
  16. 如何实现视频平台会员多账号登录
  17. 信息安全管理——网络安全
  18. unity 实现闪电特效
  19. HuaWei ❉ IPv4基本原理
  20. linux 换一个路径存储新的挂载nas盘

热门文章

  1. 4.Python标准库_文件管理 (部分os包,shutil包)
  2. 日更第8期-2015-3-23-如何科学地使用因特网-第三讲-为什么要用Git Bash?咱们用Github for Windows吧!(上)...
  3. select, poll, epoll
  4. 如何做研究-精辟分析
  5. 如何用C#将tif格式的图片转化成jpg?
  6. openflow和open vSwitch简介
  7. TEMU:动态分析组件
  8. (21)Xilinx FPGA开发软件(FPGA不积跬步101)
  9. (38)VHDL实现主从JK触发器
  10. (87)Verilog HDL:七分频设计