HADOOP2.5.0_64安装日志
前天安装了一个HADOOP,我直接使用了别人重新编译的包,所以安装很顺利。这里把步骤抄下。
HADOOP只是一个平台,更有挑战性的是怎样用好。
怎样使用HADOOP平台下的MAP-REDUCE 来做大数据处理。任重道远!!! 加油!
HADOOP2.5.0_64安装日志
=============================================================================
1.部署
使用了3台虚拟机做试验
NameNode
SecondaryNameNode DataNodes
---------------------------------
192.168.2.9 192.168.2.8
192.168.2.11
1.2 hostname
192.168.2.8 ts1
192.168.2.9 ts2
192.168.2.11 ts3
这里涉及到修改/etc/hosts 及/etc/sysconfig/network
简单不再累述
1.3 用户:
/usr/sbin/useradd -g grid
1.4 profile
-------------------------
1.4.1 GRID .bash_profile
$ cat .bash_profile
# Get the aliases and functions
if [ -f ~/.bashrc ]; then
. ~/.bashrc
fi
# User specific environment and startup programs
umask 022
stty erase ^h #删除键可用处理
export HADOOP_HOME=/opt/hadoop-2.5.0
export PATH=$HADOOP_HOME/bin:$PATH
PATH=$PATH:$HOME/bin
export PATH
export HADOOP_PREFIX=/opt/hadoop-2.5.0
export PATH=$PATH:$HADOOP_PREFIX/bin
export PATH=$PATH:$HADOOP_PREFIX/sbin
export HADOOP_MAPRED_HOMD=${HADOOP_PREFIX}
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
export YARN_HOME=${HADOOP_PREFIX}
export HADOOP_CONF_DIR=${HADOOP_PREFIX}/etc/hadoop
export HDFS_CONF_DIR=${HADOOP_PREFIX}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_PREFIX}/etc/hadoop
#这里加了一些目录,因为在后面安装时,一些目录无法找到,所以直接加上了,比如:
HADOOP_HDFS_HOME
1.4.2 /etc/profile
-------------------------
/etc/profile 也添加了以下内容:
export JAVA_HOME=/usr/java/jdk1.7.0
export HADOOP_PREFIX=/opt/hadoop-2.5.0
export CLASSPATH=".:$JAVA_HOME/lib:$CLASSPATH"
export PATH="$JAVA_HOME/bin:$HADOOP_PREFIX/bin:$PATH"
1.4 SSH 配置信任关系
这里只要注意一点:文件权限不要错误,就不会有错
[grid@ts1 ~]$ ll .ssh
总用量 28
-rw-r--r--. 1 grid grid 4944 10月 15 18:07 authorized_keys
-rw-------. 1 grid grid 668 10月 15 10:01 id_dsa
-rw-r--r--. 1 grid grid 598 10月 15 10:01 id_dsa.pub
-rw-------. 1 grid grid 1679 10月 15 10:01 id_rsa
-rw-r--r--. 1 grid grid 390 10月 15 10:01 id_rsa.pub
-rw-r--r--. 1 grid grid 1192 10月 15 18:08 known_hosts
设置SSH,
1).在主节点ts1上以grid,用户身份生成用户的公匙和私匙
# su - grid
$ mkdir ~/.ssh
$ ssh-keygen -t rsa
$ ssh-keygen -t dsa
2).在副节点ts2上执行相同的操作,确保通信无阻
# ping ts1
# ping ts3
# su - grid
$ mkdir ~/.ssh
$ ssh-keygen -t rsa
$ ssh-keygen -t dsa
3).在主节点ts1上grid用户执行以下操作
$ touch ~/.ssh/authorized_keys
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
#将ts2的加入
$ ssh ts2 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ ssh ts2 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
$ scp ~/.ssh/authorized_keys ts2:~/.ssh/authorized_keys
ts3节点同ts2
4).主节点RAC1上执行检验操作
$ ssh ts1 date
$ ssh ts2 date
$ ssh ts3 date
5).在副节点ts2上执行检验操作
$ ssh ts1 date
$ ssh ts2 date
1.5 下载jdk,hadoop
jdk-7-linux-x64.tar.gz
http://download.oracle.com/otn-pub/java/jdk/7/jdk-7-linux-x64.tar.gz -O jdk-7-linux-x64.tar.gz
hadoop-2.5.0-linux64-aboutyun.tar.gz
链接:http://pan.baidu.com/s/1i3BpmIx 密码:4ldc
我直接找了别人编译好后的文件直接下载安装。
出处:http://www.douban.com/note/393721422/
jdk 目录如下:
/usr/java/jdk1.7.0
(直接拷贝过去,再修改软连接
rm -r lastest
ln -s /usr/java/jdk1.7.0 lastest )
hadoop的安装目录为:
/opt/hadoop-2.5.0
1.6 修改配置文件
涉及到的配置文件有7个:
/opt/hadoop-2.5.0/etc/hadoop/hadoop-env.sh
/opt/hadoop-2.5.0/etc/hadoop/yarn-env.sh
/opt/hadoop-2.5.0/etc/hadoop/slaves
/opt/hadoop-2.5.0/etc/hadoop/core-site.xml
/opt/hadoop-2.5.0/etc/hadoop/hdfs-site.xml
/opt/hadoop-2.5.0/etc/hadoop/mapred-site.xml
/opt/hadoop-2.5.0/etc/hadoop/yarn-site.xml
以上个别文件默认丌存在的,可以复制相应的template文件获得。
1.6.1 /opt/hadoop-2.5.0/etc/hadoop/hadoop-env.sh
#修改了一个JAVA环境目录
export JAVA_HOME=/usr/java/jdk1.7.0
#添加的内容如下
export HADOOP_FREFIX=/opt/hadoop-2.5.0
export HADOOP_COMMON_HOME=${HADOOP_FREFIX}
export HADOOP_HDFS_HOME=${HADOOP_FREFIX}
export PATH=$PATH:$HADOOP_FREFIX/bin
export PATH=$PATH:$HADOOP_FREFIX/sbin
export HADOOP_MAPRED_HOME=${HADOOP_FREFIX}
export YARN_HOME=${HADOOP_FREFIX}
export HADOOP_CONF_HOME=${HADOOP_FREFIX}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_FREFIX}/etc/hadoop
---------------------------------------------------
1.6.2 /opt/hadoop-2.5.0/etc/hadoop/yarn-env.sh
#修改了一个JAVA环境目录
export JAVA_HOME=/usr/java/jdk1.7.0
---------------------------------------------------
1.6.3 /opt/hadoop-2.5.0/etc/hadoop/slaves
#把两个slaves 节点hostname 加上(1.0版本还有一个master的配置,2.0没了)
ts1
ts3
---------------------------------------------------
1.6.3 /opt/hadoop-2.5.0/etc/hadoop/core-site.xml
#修改配置如下:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://ts2:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop-2.5.0/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.hduser.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hduser.groups</name>
<value>*</value>
</property>
</configuration>
---------------------------------------------------
1.6.4 /opt/hadoop-2.5.0/etc/hadoop/mapred-site.xml
#mapreduce 的配置,主节点、端口
#修改配置如下
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>ts2:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>ts2:19888</value>
</property>
</configuration>
---------------------------------------------------
1.6.5 /opt/hadoop-2.5.0/etc/hadoop/yarn-site.xml
#yarn 的配置,主节点、端口
#修改配置如下
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>ts2:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>ts2:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>ts2:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>ts2:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>ts2:8088</value>
</property>
</configuration>
1.7 分发文件
配置完文件后,把/opt/hadoop-2.5.0 分别拷贝到其它两个节点中
scp -r /opt/hadoop-2.5.0 ts2:/opt
scp -r /opt/hadoop-2.5.0 ts3:/opt
1.8 测试启动
1.8.1 主节点初始化:
[grid@ts2 ~]$ hdfs namenode -format
然后依次执行start-dfs.sh
再执行start-yarn.sh
也可以简单粗暴的直接start-all.sh
然后jps命令就可以查看到hadoop的运行状态了
[grid@ts2 ~]$ jps
39726 NameNode
39878 SecondaryNameNode
40735 ResourceManager
53234 Jps
[grid@ts2 ~]$
hadoop dfsadmin -report 查看状态
web界面 master:50070
如果能打开,说明你已完成安装,可以看到东西了。
[grid@ts2 ~]$ hadoop dfsadmin -report
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
14/10/17 11:34:59 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Configured Capacity: 171214802944 (159.46 GB)
Present Capacity: 146903875584 (136.81 GB)
DFS Remaining: 146903826432 (136.81 GB)
DFS Used: 49152 (48 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Live datanodes (2):
Name: 192.168.2.11:50010 (ts3)
Hostname: ts3
Decommission Status : Normal
Configured Capacity: 128940085248 (120.08 GB)
DFS Used: 24576 (24 KB)
Non DFS Used: 14019387392 (13.06 GB)
DFS Remaining: 114920673280 (107.03 GB)
DFS Used%: 0.00%
DFS Remaining%: 89.13%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Fri Oct 17 11:35:00 CST 2014
Name: 192.168.2.8:50010 (ts1)
Hostname: ts1
Decommission Status : Normal
Configured Capacity: 42274717696 (39.37 GB)
DFS Used: 24576 (24 KB)
Non DFS Used: 10291539968 (9.58 GB)
DFS Remaining: 31983153152 (29.79 GB)
DFS Used%: 0.00%
DFS Remaining%: 75.66%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Fri Oct 17 11:34:59 CST 2014
HADOOP2.5.0_64安装日志相关推荐
- linux安装日志切割程序
====linux安装日志切割程序==== 安装 gcc (1) yum insatll gcc (2)# cd cronolog-1.6.2 4.运行安装 # ./configure # make ...
- hadoop2.7.1安装初上手
= hadoop2.7.1安装初上手 =''create by ymc023''==== 一.环境准备 ====1.virtualbox 虚拟机3台 转载于:https://blog.51cto.co ...
- cad安装日志文件发生错误_安装软件提示“打开安装日志文件时发生错误”解决办法...
最近有朋友在安装loadrunner时发生报错,windows installer报错:打开安装日志文件时发生错误.请检查指定的日志文件位置是否存在并且可以写入. 造成报错的原因就是他之前安装过一次l ...
- EMC Navisphere AGENT(NAVIAGENT) 安装日志
在连接EMC阵列的主机上需要安装Agent,安装后重起,EMC阵列才能发现主机. 安装日志如下: # pkgadd -d NAVIAGNT.pkg The following packages are ...
- SQL Sever2012安装错误——Windows Installer错误消息:打开安装日志文件的错误的原因及解决方案
文章目录 一.前言 二.错误信息 三.错误原因 四.解决方案 五.结语 一.前言 这个安装报错信息是我在安装SQL Sever2012时碰到的问题,百度了一下好像没有找到切实可行的方案,正好在此记录一 ...
- Jumpstart Client安装日志
用Jumpstart安装了一台T5120, 以下为串口输出的安装日志. {0} ok boot net - install SPARC Enterprise T5120, No Keyboard Co ...
- Ubuntu 18.04下autoware 1.12 安装日志(含花屏解决方法)
Ubuntu 18.04下autoware 1.12 安装日志 安装Autoware 1.12 Autoware官网信息 下载相关依赖项 新建文件夹下载autoware 1.12 编译autoware ...
- 1,我们无法创建新的分区,也找不到现有的分区。有关详细信息,请参阅安装日志文件。2,Windows 检测到EFI系统分区格式为NTFS。将EFI系统分区格式化为FAT32,然后重新启动安装。
使用U盘重装win10系统时的两个错误.(我的是新买的固态硬盘作为系统盘,所以才重装系统) 1,我们无法创建新的分区,也找不到现有的分区.有关详细信息,请参阅安装日志文件. 2,Windows 检测到 ...
- hadoop2.6.0安装详细步骤
文章目录 1.简述 2. 安装步骤 1. linux环境准备 1.基础环境规划 2. host配置和主机名(四台) 3. 安装jdk 2. linux免密登录配置 1. 关闭四台服务器的防火墙和SEL ...
最新文章
- python opencv 图像膨胀
- Java高并发编程(二):Java并发机制的底层实现机制
- wxWidgets:wxMessageDialog类用法
- 认识学习网络布线与数制转换
- [转载]Token原理以及应用
- Oracle之PL/SQL学习笔记之有名块练习
- C语言调用自定义交换函,C语言函数篇 - personal page of Msingwen - OSCHINA - 中文开源技术交流社区...
- 查看oracle执行计划
- Mybatis-学习笔记(N)mybatis-generator 生成DAO、Mapper、entity
- Eclipse ADT安装慢解决方法
- 链表初始化typedef struct LNode{}LNode,*linklist的理解
- 教你如何设置让Excel窗口总是在最前面
- 软考信息系统项目管理师考试心得-备考
- html扑克牌展开,HTML5 canvas扑克牌花式洗牌动画
- docker开启两个MySQL容器_Docker下运行两个Mysql5.7容器
- 取redis中手机验证码,并验证是否正确
- 自写网络验证,支持注册 充值 在线消息 自动更新
- cad考试题库绘图题答案_最新CAD考试题库及答案-cad考试题库绘图题答案
- JOL(java object layout --java 对象内存布局)
- python udp 大文件_Python UDP服务器发送文本文件的行(Python UDP Server send lines of a text file)...
热门文章
- ubuntu16.0 安装 openstack
- IntelliJ IDEA中日志分类显示设置
- 程序人生之回顾大学前两年----第二篇
- 去除Android开发文档中的URL,加速你的Android开发文档
- HTML相对路径(Relative Path)和绝对路径(Absolute Path)
- Android中的Notification
- step5 . day5 网络编程 基于UDP协议的多人网络在线聊天功能
- version control(版本控制)
- [HAOI2007] 理想的正方形 (单调队列)
- Spring Boot的事务管理注解@EnableTransactionManagement的使用