Hadoop会遇到的45个问题,你确定你了解吗?
本文这里为大家分享Hadoop集群设置中经常出现的一些问题。 在工作生活中,有些问题非常简单,但往往搜索半天也找不到所需的答案,在Hadoop的学习与使用过程中同样如此。关注WX公众号:大数据技术工程师。可免费领取hadoop学习资料。这里为大家分享Hadoop集群设置中经常出现的一些问题:
大数据技术工程师
1.Hadoop集群可以运行的3个模式?
单机(本地)模式 伪分布式模式 全分布式模式
- 单机(本地)模式中的注意点?
在单机模式(standalone)中不会存在守护进程,所有东西都运行在一个JVM上。这里同样没有DFS,使用的是本地文件系统。单机模式适用于开发过程中运行MapReduce程序,这也是最少使用的一个模式。
- 伪分布模式中的注意点?
伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,所有守护进程都在同一台机器上运行。
- VM是否可以称为Pseudo?
不是,两个事物,同时Pseudo只针对Hadoop。
- 全分布模式又有什么注意点?
全分布模式通常被用于生产环境,这里我们使用N台主机组成一个Hadoop集群,Hadoop守护进程运行在每台主机之上。这里会存在Namenode运行的主机,Datanode运行的主机,以及task tracker运行的主机。在分布式环境下,主节点和从节点会分开。
- Hadoop是否遵循UNIX模式?
是的,在UNIX用例下,Hadoop还拥有“conf”目录。
- Hadoop安装在什么目录下?
Cloudera和Apache使用相同的目录结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。
- Namenode、Job tracker和task tracker的端口号是?
Namenode,70;Job tracker,30;Task tracker,60。
- Hadoop的核心配置是什么?
Hadoop的核心配置通过两个xml文件来完成:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,因此每个xml中都有一些属性,包括名称和值,但是当下这些文件都已不复存在。
- 那当下又该如何配置?
Hadoop现在拥有3个配置文件:1,core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子目录下。
- RAM的溢出因子是?
溢出因子(Spill factor)是临时文件中储存文件的大小,也就是Hadoop-temp目录。
- fs.mapr.working.dir只是单一的目录?
fs.mapr.working.dir只是一个目录。
- hdfs-site.xml的3个主要属性?
dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端) dfs.data.dir决定的是数据存储的路径 fs.checkpoint.dir用于第二Namenode
- 如何退出输入模式?
退出输入的方式有:1,按ESC;2,键入:q(如果你没有输入任何当下)或者键入:wq(如果你已经输入当下),并且按下Enter。
- 当你输入hadoopfsck /造成“connection refused java exception’”时,系统究竟发生了什么?
这意味着Namenode没有运行在你的VM之上。
- 我们使用Ubuntu及Cloudera,那么我们该去哪里下载Hadoop,或者是默认就与Ubuntu一起安装?
这个属于Hadoop的默认配置,你必须从Cloudera或者Edureka的dropbox下载,然后在你的系统上运行。当然,你也可以自己配置,但是你需要一个Linux box,Ubuntu或者是Red Hat。在Cloudera网站或者是Edureka的Dropbox中有安装步骤。
- “jps”命令的用处?
这个命令可以检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。
- 如何重启Namenode?
点击stop-all.sh,再点击start-all.sh。 键入sudo hdfs(Enter),su-hdfs (Enter),/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenode start(Enter)。
- Fsck的全名?
全名是:File System Check。
- 如何检查Namenode是否正常运行?
如果要检查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。
- mapred.job.tracker命令的作用?
可以让你知道哪个节点是Job Tracker。
- /etc /init.d命令的作用是?
/etc /init.d说明了守护进程(服务)的位置或状态,其实是LINUX特性,和Hadoop关系不大。
- 如何在浏览器中查找Namenode?
如果你确实需要在浏览器中查找Namenode,你不再需要localhost:8021,Namenode的端口号是50070。
- 如何从SU转到Cloudera?
从SU转到Cloudera只需要键入exit。
- 启动和关闭命令会用到哪些文件?
Slaves及Masters。
- Slaves由什么组成?
Slaves由主机的列表组成,每台1行,用于说明数据节点。
- Masters由什么组成?
Masters同样是主机的列表组成,每台一行,用于说明第二Namenode服务器。
- hadoop-env.sh是用于做什么的?
hadoop-env.sh提供了Hadoop中. JAVA_HOME的运行环境。
- Master文件是否提供了多个入口?
是的你可以拥有多个Master文件接口。
- hadoop-env.sh文件当下的位置?
hadoop-env.sh现在位于conf。
- 在Hadoop_PID_DIR中,PID代表了什么?
PID代表了“Process ID”。
- /var/hadoop/pids用于做什么?
/var/hadoop/pids用来存储PID。
- hadoop-metrics.properties文件的作用是?
hadoop-metrics.properties被用做“Reporting”,控制Hadoop报告,初始状态是“not to report”。
- Hadoop需求什么样的网络?
Hadoop核心使用Shell(SSH)来驱动从节点上的服务器进程,并在主节点和从节点之间使用password-less SSH连接。
- 全分布式环境下为什么需求password-less SSH?
这主要因为集群中通信过于频繁,Job Tracker需要尽可能快的给Task Tracker发布任务。
- 这会导致安全问题吗?
完全不用担心。Hadoop集群是完全隔离的,通常情况下无法从互联网进行操作。与众不同的配置,因此我们完全不需要在意这种级别的安全漏洞,比如说通过互联网侵入等等。Hadoop为机器之间的连接提供了一个相对安全的方式。
- SSH工作的端口号是?
SSH工作的端口号是NO.22,当然可以通过它来配置,22是默认的端口号。
- SSH中的注意点还包括?
SSH只是个安全的shell通信,可以把它当做NO.22上的一种协议,只需要配置一个密码就可以安全的访问。
- 为什么SSH本地主机需要密码?
在SSH中使用密码主要是增加安全性,在某些情况下也根本不会设置密码通信。
- 如果在SSH中添加key,是否还需要设置密码?
是的,即使在SSH中添加了key,还是需要设置密码。
- 假如Namenode中没有数据会怎么样?
没有数据的Namenode就不能称之为Namenode,通常情况下,Namenode肯定会有数据。
- 当Job Tracker宕掉时,Namenode会发生什么?
当Job Tracker失败时,集群仍然可以正常工作,只要Namenode没问题。
- 是客户端还是Namenode决定输入的分片?
这并不是客户端决定的,在配置文件中以及决定分片细则。
- 是否可以自行搭建Hadoop集群?
是的,只要对Hadoop环境足够熟悉,你完全可以这么做。
- 是否可以在Windows上运行Hadoop?
你最好不要这么做,Red Hat Linux或者是Ubuntu才是Hadoop的最佳操作系统。在Hadoop安装中,Windows通常不会被使用,因为会出现各种各样的问题。因此,Windows绝对不是Hadoop的推荐系统。
这些都是hadoop集群常见的一些问题,带给大家,希望对大家有一点点帮助,同时,希望大家多关注我哦,更多的精彩文章带给大家,可以关注下我的微信公众号;大数据技术工程师 可以领取大数据,java,java面试,Python相关的学习资料哦,回复关键字免费领取即可、
转载于:https://juejin.im/post/5b8d3e2b6fb9a019d137e5a6
Hadoop会遇到的45个问题,你确定你了解吗?相关推荐
- hadoop 2 java hdfs_Hadoop2.6.0学习笔记(二)HDFS访问
鲁春利的工作笔记,谁说程序员不能有文艺范? 通过hadoop shell与java api访问hdfs 工作笔记之Hadoop2.6集群搭建已经将集群环境搭建好了,下面来进行一些HDFS的操作 1.H ...
- 大数据hadoop与spark研究——1 spark环境搭建
第一章 介绍 一. spark组件 Spark是一个用于集群计算的通用计算框架 Spark可将如何Hadoop分布式文件系统(HDFS)上的文件读取为分布式数据集(RDD) Spark是用Scala写 ...
- Hive中数据的加载和导出
原文:http://blog.javachen.com/2014/06/09/hive-data-manipulation-language.html 关于 Hive DML 语法,你可以参考 apa ...
- Docker 使用Dockerfile构建自己的docker服务(三)
先介绍一下DockerFile文件的一些指令说明 DockerFile的指令 FROM 基础镜镜像,一切从这里开始构建 MAINTAINER 镜像是谁写的,姓名+邮箱 RUN 镜像构建的时候需要运行的 ...
- 云小课 | MRS基础入门之HDFS组件介绍
摘要:HDFS是MapReduce服务中的基础文件系统,全称为Hadoop的分布式文件系统(Hadoop Distributed File System),可支持实现大规模数据可靠的分布式读写. 本文 ...
- Hive-1.2.0学习笔记(四)Hive表管理
鲁春利的工作笔记,谁说程序员不能有文艺范? Hive默认只有一个数据库default,并且默认的文件存储路径由配置文件hive-default.xml文件指定. <property>< ...
- Hadoop科普文—常见的45个问题解答 #183; Hadoop
1.Hadoop集群能够执行的3个模式 · 单机(本地)模式 · 伪分布式模式 · 全分布式模式 2. 单机(本地)模式中的注意点? 在单机模式(standalone)中不会存在守护进程,全部东西都 ...
- Hadoop常见面试45问
1.Hadoop集群可以运行的3个模式 单机(本地)模式 伪分布式模式 全分布式模式 2. 单机(本地)模式中的注意点? 在单机模式(standalone)中不会存在守护进程,所有东西都运行在一个J ...
- Hadoop面试45个题目及答案
1.Hadoop集群可以运行的3个模式? 单机(本地)模式 伪分布式模式 全分布式模式 2. 单机(本地)模式中的注意点? 在单机模式(standalone)中不会存在守护进程,所有东西都运行在一个 ...
最新文章
- Facebook数据丑闻后续:“罪魁”剑桥分析破产,但它还留了一手数据
- tomcat配置文件server.xml具体解释
- 史上最详细、最完全的ipython使用教程,Python使用者必备!
- linux下载b站的视频+ffmpeg抽取出mp3
- perl one line
- PCIE2.0/PCIE3.0/PCIE4.0/PCIE5.0接口的带宽、速率计算
- c语言编写电子秒表程序,电子秒表C程序.doc
- SpringBoot App Registers UNKNOWN with Eureka in Brixton SR3
- SpringBoot测试类
- 【软件测试】使用C++ Test 进行静态测试
- 高阶技术管理岗空降落地实践指南
- html添加到购物车飞入动画效果,加入购物车的动画效果
- R730服务器内存扩展安装
- python图形模块_Python图像处理PIL各模块详细介绍(推荐)
- 华为服务器修改root密码,云服务器更改root权限设置密码
- 自动量程万用表的实现原理_自动量程万用表的优缺点
- 目前巨型计算机应用最主要的领域是,A.10%-15%.
- app逆向--某视频刷邀请
- SWFObject.js入门
- 模块一:cursors模块