大数据——HADOOP 3.1.3安装与配置

1、检查/etc/hosts中 ip hostname 映射
20.0.0.1 主机名

ip addr
hotname

2、本机免密

cd ~
ssh-keygen -t rsa
cat id_rsa.pub>>authorized_keys
ls .ssh/id_rsa id_rsa.pub authorized_keys [known_hosts]
ssh root@主机名

3、解压缩并重命名

tar -zxvf /opt/download/hadoop-3.1.3.tar.gz -C /opt/software
mv /opt/software/hadoop-3.1.3 /opt/software/hadoop313

4、配置环境变量

vi /etc/profile.d/myenv.shexport HADOOP_HOME=/opt/software/hadoop313
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

运行时资源路径

export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_CONF_DIR=$HADOOP_HOME
export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

激活环境变量

source /etc/profile

5、hadoop-env.sh
export JAVA_HOME=/opt/software/jdk
core-site.xml
hdfs-site.xml
yarn-site.xml

<!--缺少该项容易引发异常:客户端以0.0.0.0:8032访问yarn被拒绝--><property><name>yarn.resourcemanager.address</name><value>singlehenry:8032</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>singlehenry:8030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>singlehenry:8031</value></property><!--缺少该项容易引发异常:Invalid event: APP_UPDATE_SAVED at ACCEPTED--><property><name>yarn.app.mapreduce.am.resource.mb</name><value>256</value></property><!--缺少该项容易引发运行时资源无法定位异常:value内容通过hadoop classpath命令查看复制--><property><name>yarn.application.classpath</name><value>/opt/software/hadoop313/etc/hadoop:/opt/software/hadoop313/share/hadoop/common/lib/*:/opt/software/hadoop313/share/hadoop/common/*:/opt/software/hadoop313/share/hadoop/hdfs:/opt/software/hadoop313/share/hadoop/hdfs/lib/*:/opt/software/hadoop313/share/hadoop/hdfs/*:/opt/software/hadoop313/share/hadoop/mapreduce/lib/*:/opt/software/hadoop313/share/hadoop/mapreduce/*:/opt/software/hadoop313/share/hadoop/yarn:/opt/software/hadoop313/share/hadoop/yarn/lib/*:/opt/software/hadoop313/share/hadoop/yarn/*</value></property>

mapred-site.xml

#jvm 内存调优(单位:k/m/g)#-XmxC(m) jvm最大可用内存#物理内存<1g,默认为物理内存1/2,否则1/4#-XmsC(m) jvm最小可用内存,可以与Xmx相同以避免gc之后重新分配内存#若未设置则为新生代+老年代#>=8m,否则为物理内存1/64,最大为1g#-XmnY(g) jvm年轻代(jvm内存=年轻代(eden & 2*survivor)Yg+老年代(Cg-Yg-64m)+持久代64m)#年轻代越大老年代越小,设置不当严重影响jvm性能#sun官方推荐年轻代大小为堆内存大小的3/8#-XssN(k) jvm线程栈大小#jdk(<5:256k,>=5:1m)#单个线程栈越小并发线程数越多(2000~5000)#-XX:NewRatio=4 年轻代:老年代 = 1:4      年轻代占整个堆内存的1/5#默认为2  年轻代:老年代 = 1:2      年轻代占整个堆内存的1/3,且最大为1/3#-XX:SurvivorRatio=4 eden : 2*survivor = 4 : 6    eden : survivor 2 : 3#默认为8       eden : 2*survivor = 8 : 2 eden : survivor 8 : 1#-XX:MaxPermSize=16m  设置永久代大小#默认大小为 64m#-XX:MaxTenuringThreadhold=n#若设置为0,新建对象不进survivor直接进入老年代,适合老年代应用#若果设置较大值,对象将在survivor区进行多次复制,增加对象在年轻代存活时间,增加在年轻代即被回收概率#垃圾回收设置#-XX:+UseParallelGC#年轻代使用吞吐量优先的并行收集器#-XX:ParallelGCThreads=4#设置并行收集器的线程数,一般为核数#-XX:+UserParallelOldGC#老年代使用吞吐量优先的并行收集器#-XX:MaxGCPauseMillis=100#设置单次年轻代垃圾回收最大时长,如果无法满足,jvm自动调整年轻代大小以满足此设置#-XX:+UseAdaptiveSizePolicy#使用并行选择器时,建议一直打开#自动调整new和old的比例,以满足最大时间或收集频率等需求<!--Container内存上限,由nodemanager读取并控制,实际使用超出时会被nodemanager kill Connection reset by peer--><property><name>mapreduce.map.memory.mb</name><value>1024</value></property><!--Container启动jvm时,传递给jvm的参数,实际使用超出时会抛OutofMemory异常--><property><name>mapreduce.map.java.opts</name><value>-Xmx1024M</value></property><property><name>mapreduce.map.java.opts</name><value>-Xms128M</value></property><property><name>mapreduce.reduce.memory.mb</name><value>2048</value></property><property><name>mapreduce.reduce.java.opts</name><value>-Xmx2048M</value></property><property><name>mapreduce.map.java.opts</name><value>-Xms256M</value></property>

6、namenode格式化

cd /opt/software/hadoop313#注意:非首次格式化,必须提前删除core-site.xml中配置目录hadoop.tmp.dir项目录中的所有内容
rm -rf /opt/software/hadoop313/data./bin/hdfs namenode -format

7、启动服务

start-dfs.sh + start-yarn.sh = start-all.sh
./sbin/mr-jobhistory-daemon.sh start historyserver
jps
---------------------------------
2035 DataNode
2262 SecondaryNameNode
2552 ResourceManager
2696 NodeManager
1913 NameNode
4509 JobHistoryServer
---------------------------------

如果出错,重点检查 …hadoop313/logs/hadoop-root-[namenode/datanode/resourcemanager/nodemanager].log
tail -30 hadoop-root-namenode-singlehenry.log

8、web访问
20.0.0.180:9870 -> namenode
20.0.0.180:8088 -> jobhistory

9、lunix cmd访问
hdfs dfs -ls /
hdfs dfs -mkdir -p /kb12/hd/cha01
hdfs dfs -put a.txt /kb12/hd/cha01
hdfs dfs -cat /kb12/hd/cha01/*

10、java opr hadoop
#1、准备windows hadoop环境
hadoop.dll -> windows/system32

#2、将linux下hadoop打包
cd /opt/software
tar -zcvf hadoop313.tar.gz hadoop313/
#将压缩包通过xftp或sz将压缩包拷贝至windows
#将压缩包解压至windows d:/software目录
#若解压报错:win->search winrar->右键以管理员方式启动->选择压缩包解压至目标路径

#3、将windutils.exe拷贝至windows hadoop313/bin
winutils.exe -> hadoop313/bin

#4、迁移lunix hadoop至windows配置环境变量
#配置windows hadoop环境变量
HADOOP_HOME=D:softwarehadoop313
Path : %HADOOP_HOME%in;%HADOOP_HOME%sbin;…
HADOOP_USER_NAME=root

#5、配置windows环境下linux中hostname和ip地址映射
windows/System32/drivers/etc/hosts
20.0.0.180 singlehenry

#6、退出安全模式
hadoop dfsadmin -safemode leave

#7、自带案例
hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /input/wc01.log /output

大数据——Hadoop3.1.3安装与配置相关推荐

  1. hadoop在章鱼大数据平台下的安装与配置

    本次所用的软件版本: ubuntu :14.04 Hadoop:hadoop-2.6.0-cdh5.4.5 jdk:jdk-7u75-linux-x64 Hive: Hbase: 一.配置基本环境 1 ...

  2. 大数据技术之 HBase安装配置

    大数据技术之 HBase安装 1.hbase依赖于hadoop以及zookeeper,所以 1.1 首先myhadoop.sh start 1.2 然后zk.sh start 接下来安装hbase 1 ...

  3. 【大数据数仓项目集群配置 一】

    本文用于记录我的第一次内网大数据集群配置过程. 本篇主要实现基础配置. 配置使用的软件版本和脚本参考自尚硅谷,链接如下: 链接: https://www.bilibili.com/video/BV1r ...

  4. 时空大数据实践之GeoWave安装部署实践

    2019独角兽企业重金招聘Python工程师标准>>> 时空大数据实践之GeoWave安装部署实践 GeoWave是由国家地理空间情报局(NGA)与RadiantBlue和Booz ...

  5. Hadoop大数据生态组件环境安装

    首先安装Centos系统修改网络配置: 我的三台机器: master 192.168.179.10 slave1 192.168.179.11 slava2 192.168.179.12 各组件端口号 ...

  6. 大数据架构-使用HBase和Solr配置存储与索引

    大数据架构-使用HBase和Solr配置存储与索引 2014-08-22 11:04 王安琪 博客园 字号:T | T HBase可以通过协处理器Coprocessor的方式向Solr发出请求,Sol ...

  7. 大数据系列之:安装pulsar详细步骤

    大数据系列之:安装pulsar详细步骤 一.Pulsar版本和jdk对应关系 二.安装JDK 三.设置和激活jdk环境变量 四.下载和解压Pulsar 五.查看Pulsar目录 六.启动Pulsar ...

  8. 大数据(起源及特点,hadoop的配置安装)

    一.大数据时代 1.三次信息化浪潮 第一次:1980左右,个人计算机的普及.社会生产力得到大大的提高 第二次:1995左右,互联网的流行.门户网站的产生,信息量急剧增加 第三次:2010之后,物联网, ...

  9. 大数据技术——VMbox的安装和网络配置

    <大数据实训案例>实验报告 题目:大数据实验环境搭建 姓名:xxx 学号:xxxxxxx 实验日期:2023.x.x 一.实验目的 (1)掌握Linux操作系统的安装和使用方法 (2)掌握 ...

最新文章

  1. MySQL 常见操作指令
  2. React 项目--创建组件(7)
  3. mysql为什么直接8.0_为什么要迁移到MySQL8.0?
  4. LINUX CP命令
  5. 智能优化算法之蚁群算法(1)
  6. QT的QRegExpValidator类的使用
  7. iOS开发之Runtime关联属性
  8. 设计模式适配器模式_21世纪的设计模式:适配器模式
  9. Gnome即将满18岁,适用于Docker,Kali Linux 2.0的新工具以及更多新闻
  10. python数据结构不常用的方法(哈哈,其实是常用的)
  11. hdu 4536 dfs
  12. atitit。html css框架Bootstrap  Foundation的比较与不同 attilax大总结
  13. linux脚本判断文件属性,linux的shell脚本中的逻辑判断、文件目录属性判断、if特殊用法、case判断...
  14. Codeforces Round #439 (Div. 2) A. The Artful Expedient
  15. Android蓝牙简介
  16. 二分查找法及其四种变形(MATLAB)
  17. 苹果出现长方形透明框_衢州a4亚克力框
  18. “无法在设置线程模式后对其加以更改”
  19. 每月产量不均衡,怎样分摊费用更合理?
  20. 回调函数是什么,如何使用以及函数的注册

热门文章

  1. 胜负无定数,敢搏成七分
  2. Vue中href属性动态拼接
  3. 2021-10-22 今日总结
  4. dvi和hdmi 知乎_HDMI和DVI有什么区别? 哪个更好?
  5. C# Windows系统音量调节Demo源码
  6. sublime指定python版本
  7. 关键词优化推广需要怎么做?有哪些方法和技巧
  8. 提高网站关键词排名优化技巧!
  9. android 清理后自动重启,解决Android后台清理APP后,程序自动重启的问题
  10. Weights Biases (一)