不要错过文末彩蛋】

申明:

本文旨在为普通程序员(Java程序员最佳)提供一个入门级别的大数据技术学习路径,不适用于大数据工程师的进阶学习,也不适用于零编程基础的同学。


前言:

  • 一、背景介绍
  • 二、大数据介绍

正文:

  • 一、大数据相关的工作介绍
  • 二、大数据工程师的技能要求
  • 三、大数据学习规划
  • 四、持续学习资源推荐(书籍,博客,网站)
  • 五、项目案例分析(批处理+实时处理)

如果你准备了解大数据开发或是正在学习大数据开发,欢迎加入我们的大数据学习q群378144993,群里365天每天与大家分享免费的学习教程以及开发工具,你与大咖就差这个圈.

前言

一、背景介绍

本人目前是一名大数据工程师,项目数据50T,日均数据增长20G左右,个人是从Java后端开发,经过3个月的业余自学成功转型大数据工程师。

二、大数据介绍

大数据本质也是数据,但是又有了新的特征,包括数据来源广数据格式多样化(结构化数据、非结构化数据、Excel文件、文本文件等)、数据量大(最少也是TB级别的、甚至可能是PB级别)、数据增长速度快等。

针对以上主要的4个特征我们需要考虑以下问题:

  1. 数据来源广,该如何采集汇总?,对应出现了Sqoop,Cammel,Datax等工具。

  2. 数据采集之后,该如何存储?,对应出现了GFS,HDFS,TFS等分布式文件存储系统。

  3. 由于数据增长速度快,数据存储就必须可以水平扩展。

  4. 数据存储之后,该如何通过运算快速转化成一致的格式,该如何快速运算出自己想要的结果?

    对应的MapReduce这样的分布式运算框架解决了这个问题;但是写MapReduce需要Java代码量很大,所以出现了Hive,Pig等将SQL转化成MapReduce的解析引擎;

    普通的MapReduce处理数据只能一批一批地处理,时间延迟太长,为了实现每输入一条数据就能得到结果,于是出现了Storm/JStorm这样的低时延的流式计算框架;

    但是如果同时需要批处理流处理,按照如上就得搭两个集群,Hadoop集群(包括HDFS+MapReduce+Yarn)和Storm集群,不易于管理,所以出现了Spark这样的一站式的计算框架,既可以进行批处理,又可以进行流处理(实质上是微批处理)。

  5. 而后Lambda架构,Kappa架构的出现,又提供了一种业务处理的通用架构。

  6. 为了提高工作效率,加快运速度,出现了一些辅助工具:

    • Ozzie,azkaban:定时任务调度的工具。
    • Hue,Zepplin:图形化任务执行管理,结果查看工具。
    • Scala语言:编写Spark程序的最佳语言,当然也可以选择用Python。
    • Python语言:编写一些脚本时会用到。
    • Allluxio,Kylin等:通过对存储的数据进行预处理,加快运算速度的工具。

以上大致就把整个大数据生态里面用到的工具所解决的问题列举了一遍,知道了他们为什么而出现或者说出现是为了解决什么问题,进行学习的时候就有的放矢了。

正文

一、大数据相关工作介绍

大数据方向的工作目前主要分为三个主要方向:

  1. 大数据工程师
  2. 数据分析师
  3. 大数据科学家
  4. 其他(数据挖掘等)

二、大数据工程师的技能要求

附上大数据工程师技能图:

必须掌握的技能11条

  1. Java高级(虚拟机、并发)
  2. Linux 基本操作
  3. Hadoop(HDFS+MapReduce+Yarn )
  4. HBase(JavaAPI操作+Phoenix )
  5. Hive(Hql基本操作和原理理解)
  6. Kafka
  7. Storm/JStorm
  8. Scala
  9. Python
  10. Spark (Core+sparksql+Spark streaming )
  11. 辅助小工具(Sqoop/Flume/Oozie/Hue等)

高阶技能6条

  1. 机器学习算法以及mahout库加MLlib
  2. R语言
  3. Lambda 架构
  4. Kappa架构
  5. Kylin
  6. Alluxio

三、学习路径

假设每天可以抽出3个小时的有效学习时间,加上周末每天保证10个小时的有效学习时间;

3个月会有(21*3+4*2*10)*3=423小时的学习时间。

第一阶段(基础阶段)

1)Linux学习(跟鸟哥学就ok了)—–20小时

  1. Linux操作系统介绍与安装。
  2. Linux常用命令。
  3. Linux常用软件安装。
  4. Linux网络。
  5. 防火墙。
  6. Shell编程等。

官网:https://www.centos.org/download/ 
中文社区:http://www.linuxidc.com/Linux/2017-09/146919.htm

2)Java 高级学习(《深入理解Java虚拟机》、《Java高并发实战》)—30小时

  1. 掌握多线程。
  2. 掌握并发包下的队列。
  3. 了解JMS。
  4. 掌握JVM技术。
  5. 掌握反射和动态代理。

官网:https://www.java.com/zh_CN/ 
中文社区:http://www.java-cn.com/index.html

3)Zookeeper学习(可以参照这篇博客进行学习:http://www.cnblogs.com/wuxl360/p/5817471.html)

  1. Zookeeper分布式协调服务介绍。
  2. Zookeeper集群的安装部署。
  3. Zookeeper数据结构、命令。
  4. Zookeeper的原理以及选举机制。

官网:http://zookeeper.apache.org/ 
中文社区:http://www.aboutyun.com/forum-149-1.html

第二阶段(攻坚阶段)

4)Hadoop (《Hadoop 权威指南》)—80小时

  1. HDFS

    • HDFS的概念和特性。
    • HDFS的shell操作。
    • HDFS的工作机制。
    • HDFS的Java应用开发。
  2. MapReduce

    • 运行WordCount示例程序。
    • 了解MapReduce内部的运行机制。 
      • MapReduce程序运行流程解析。
      • MapTask并发数的决定机制。
      • MapReduce中的combiner组件应用。
      • MapReduce中的序列化框架及应用。
      • MapReduce中的排序。
      • MapReduce中的自定义分区实现。
      • MapReduce的shuffle机制。
      • MapReduce利用数据压缩进行优化。
      • MapReduce程序与YARN之间的关系。
      • MapReduce参数优化。
  3. MapReduce的Java应用开发

官网:http://hadoop.apache.org/ 
中文文档:http://hadoop.apache.org/docs/r1.0.4/cn/ 
中文社区:http://www.aboutyun.com/forum-143-1.html

5)Hive(《Hive开发指南》)–20小时

  1. Hive 基本概念

    • Hive 应用场景。
    • Hive 与hadoop的关系。
    • Hive 与传统数据库对比。
    • Hive 的数据存储机制。
  2. Hive 基本操作

    • Hive 中的DDL操作。
    • 在Hive 中如何实现高效的JOIN查询。
    • Hive 的内置函数应用。
    • Hive shell的高级使用方式。
    • Hive 常用参数配置。
    • Hive 自定义函数和Transform的使用技巧。
    • Hive UDF/UDAF开发实例。
  3. Hive 执行过程分析及优化策略

官网:https://hive.apache.org/ 
中文入门文档:http://www.aboutyun.com/thread-11873-1-1.html 
中文社区:http://www.aboutyun.com/thread-7598-1-1.html

6)HBase(《HBase权威指南》)—20小时

  1. hbase简介。
  2. habse安装。
  3. hbase数据模型。
  4. hbase命令。
  5. hbase开发。
  6. hbase原理。

官网:http://hbase.apache.org/ 
中文文档:http://abloz.com/hbase/book.html 
中文社区:http://www.aboutyun.com/forum-142-1.html

7)Scala(《快学Scala》)–20小时

  1. Scala概述。
  2. Scala编译器安装。
  3. Scala基础。
  4. 数组、映射、元组、集合。
  5. 类、对象、继承、特质。
  6. 模式匹配和样例类。
  7. 了解Scala Actor并发编程。
  8. 理解Akka。
  9. 理解Scala高阶函数。
  10. 理解Scala隐式转换。

官网:http://www.scala-lang.org/ 
初级中文教程:http://www.runoob.com/scala/scala-tutorial.html

8)Spark (《Spark 权威指南》)—60小时

  1. Spark core

    • Spark概述。
    • Spark集群安装。
    • 执行第一个Spark案例程序(求PI)。
  2. RDD

    • RDD概述。
    • 创建RDD。
    • RDD编程API(Transformation 和 Action Operations)。
    • RDD的依赖关系
    • RDD的缓存
    • DAG(有向无环图)
  3. Spark SQL and DataFrame/DataSet

    • Spark SQL概述。
    • DataFrames。
    • DataFrame常用操作。
    • 编写Spark SQL查询程序。
  4. Spark Streaming

    • park Streaming概述。
    • 理解DStream。
    • DStream相关操作(Transformations 和 Output Operations)。
  5. Structured Streaming

  6. 其他(MLlib and GraphX )

这个部分一般工作中如果不是数据挖掘,机器学习一般用不到,可以等到需要用到的时候再深入学习。

官网:http://spark.apache.org 
中文文档(但是版本有点老):https://www.gitbook.com/book/aiyanbo/spark-programming-guide-zh-cn/details 
中文社区:http://www.aboutyun.com/forum-146-1.html

9)Python (推荐廖雪峰的博客—30小时

10)自己用虚拟机搭建一个集群,把所有工具都装上,自己开发一个小demo —30小时

可以自己用VMware搭建4台虚拟机,然后安装以上软件,搭建一个小集群(本人亲测,I7,64位,16G内存,完全可以运行起来,以下附上我学习时用虚拟机搭建集群的操作文档)


集群搭建文档1.0版本

1. 集群规划

所有需要用到的软件:

链接:http://pan.baidu.com/s/1jIlAz2Y 
密码:kyxl

2. 前期准备

  1. 2.0 系统安装

  2. 2.1 主机名配置

  3. 2.1.0 vi /etc/sysconfig/network

  4. NETWORKING=yes

  5. 2.1.1 vi /etc/sysconfig/network

  6. NETWORKING=yes

  7. HOSTNAME=ys02

  8. 2.1.2 vi /etc/sysconfig/network

  9. NETWORKING=yes

  10. 2.1.3 vi /etc/sysconfig/network

  11. NETWORKING=yes

  12. HOSTNAME=ys04

  13. 2.2 host文件修改

  14. 2.2.0 vi /etc/hosts

  15. 10.1.1.149 ys01

  16. 10.1.1.148 ys02

  17. 10.1.1.146 ys03

  18. 10.1.1.145 ys04

  19. 2.3 关闭防火墙(centos 7默认使用的是firewall,centos 6 默认是iptables)

  20. 2.3.0 systemctl stop firewalld.service (停止firewall)

  21. 2.3.1 systemctl disable firewalld.service (禁止firewall开机启动)

  22. 2.3.2 firewall-cmd --state (查看默认防火墙状态(关闭后显示notrunning,开启后显示running)

  23. 2.4 免密登录(ys01 ->ys02,03,04)

  24. ssh-keygen -t rsa

  25. ssh-copy-id ys02(随后输入密码)

  26. ssh-copy-id ys03(随后输入密码)

  27. ssh-copy-id ys04(随后输入密码)

  28. ssh ys02(测试是否成功)

  29. ssh ys03(测试是否成功)

  30. ssh ys04(测试是否成功)

  31. 2.5 系统时区与时间同步

  32. tzselect(生成日期文件)

  33. cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime(将日期文件copy到本地时间中)

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45

3. 软件安装

  1. 3.0 安装目录规划(软件为所有用户公用)

  2. 3.0.0所有软件的安装放到/usr/local/ys/soft目录下(mkdir /usr/local/ys/soft)

  3. 3.0.1所有软件安装到/usr/local/ys/app目录下(mkdir /usr/local/ys/app)

  4. 3.1 JDK(jdk1.7)安装

  5. 3.1.1 alt+p 后出现sftp窗口,cd /usr/local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下

  6. 3.1.2解压jdk

  7. cd /usr/local/ys/soft

  8. #解压

  9. tar -zxvf jdk-7u80-linux-x64.tar.gz -C /usr/local/ys/app

  10. 3.1.3将java添加到环境变量中

  11. vim /etc/profile

  12. #在文件最后添加

  13. export JAVA_HOME= /usr/local/ys/app/ jdk-7u80

  14. export PATH=$PATH:$JAVA_HOME/bin

  15. 3.1.4 刷新配置

  16. source /etc/profile

  17. 3.2 Zookeeper安装

  18. 3.2.0解压

  19. tar -zxvf zookeeper-3.4.5.tar.gz -C /usr/local/ys/app(解压)

  20. 3.2.1 重命名

  21. mv zookeeper-3.4.5 zookeeper(重命名文件夹zookeeper-3.4.5为zookeeper)

  22. 3.2.2修改环境变量

  23. vi /etc/profile(修改文件)

  24. 添加内容:

  25. export ZOOKEEPER_HOME=/usr/local/ys/app/zookeeper

  26. export PATH=$PATH:$ZOOKEEPER_HOME/bin

  27. 3.2.3 重新编译文件:

  28. source /etc/profile

  29. 注意:3台zookeeper都需要修改

  30. 3.2.4修改配置文件

  31. cd zookeeper/conf

  32. cp zoo_sample.cfg zoo.cfg

  33. vi zoo.cfg

  34. 添加内容:

  35. dataDir=/usr/local/ys/app/zookeeper/data

  36. dataLogDir=/usr/local/ys/app/zookeeper/log

  37. server.1=ys01:2888:3888 (主机名, 心跳端口、数据端口)

  38. server.2=ys02:2888:3888

  39. server.3=ys04:2888:3888

  40. 3.2.5 创建文件夹

  41. cd /usr/local/ys/app/zookeeper/

  42. mkdir -m 755 data

  43. mkdir -m 755 log

  44. 3.2.6 在data文件夹下新建myid文件,myid的文件内容为:

  45. cd data

  46. vi myid

  47. 添加内容:

  48. 1

  49. 将集群下发到其他机器上

  50. scp -r /usr/local/ys/app/zookeeper ys02:/usr/local/ys/app/

  51. scp -r /usr/local/ys/app/zookeeper ys04:/usr/local/ys/app/

  52. 3.2.7修改其他机器的配置文件

  53. 到ys02上:修改myid为:2

  54. 到ys02上:修改myid为:3

  55. 3.2.8启动(每台机器)

  56. zkServer.sh start

  57. 查看集群状态

  58. jps(查看进程)

  59. zkServer.sh status(查看集群状态,主从信息)

  60. 3.3 Hadoop(HDFS+Yarn)

  61. 3.3.0 alt+p 后出现sftp窗口,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下

  62. 3.3.1 解压jdk

  63. cd /usr/local/ys/soft

  64. #解压

  65. tar -zxvf cenos-7-hadoop-2.6.4.tar.gz -C /usr/local/ys/app

  66. 3.3.2 修改配置文件

  67. core-site.xml

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90

hdfs-site.xml
  • 1
  • 2

yarn-sifite.xml
  • 1
  • 2

  1. svales

  2. ys02

  3. ys03

  4. ys04

  5. 3.3.3集群启动(严格按照下面的步骤)

  6. 3.3.3.1启动zookeeper集群(分别在ys01、ys02、ys04上启动zk)

  7. cd /usr/local/ys/app/zookeeper-3.4.5/bin/

  8. ./zkServer.sh start

  9. #查看状态:一个leader,两个follower

  10. ./zkServer.sh status

  11. 3.3.3.2启动journalnode(分别在在mini5、mini6、mini7上执行)

  12. cd /usr/local/ys/app/hadoop-2.6.4

  13. sbin/hadoop-daemon.sh start journalnode

  14. #运行jps命令检验,ys02、ys03、ys04上多了JournalNode进程

  15. 3.3.3.3格式化HDFS

  16. #在ys01上执行命令:

  17. hdfs namenode -format

  18. #格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/usr/local/ys/app/hadoop-2.6.4/tmp,然后将/usr/local/ys/app/hadoop-2.6.4/tmp拷贝到ys02的/usr/local/ys/app/hadoop-2.6.4/下。

  19. scp -r tmp/ ys02:/usr/local/ys /app/hadoop-2.6.4/

  20. ##也可以这样,建议hdfs namenode -bootstrapStandby

  21. 3.3.3.4格式化ZKFC(在ys01上执行一次即可)

  22. hdfs zkfc -formatZK

  23. 3.3.3.5启动HDFS(在ys01上执行)

  24. sbin/start-dfs.sh

  25. 3.3.3.6启动YARN

  26. sbin/start-yarn.sh

  27. 3.3MySQL-5.6安装

  28. 略过

  29. 3.4 Hive

  30. 3.4.1 alt+p 后出现sftp窗口,cd /usr/local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下

  31. 3.4.2解压

  32. cd /usr/local/ys/soft

  33. tar -zxvf hive-0.9.0.tar.gz -C /usr/local/ys/app

  34. 3.4.3 .配置hive

  35. 3.4.3.1配置HIVE_HOME环境变量 vi conf/hive-env.sh 配置其中的$hadoop_home

  36. 3.4.3.2配置元数据库信息 vi hive-site.xml

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51

添加如下内容:

  1. 3.4.4 安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下

  2. 如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行)

  3. mysql -uroot -p

  4. #(执行下面的语句 *.*:所有库下的所有表 %:任何IP地址或主机都可以连接)

  5. GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;

  6. FLUSH PRIVILEGES;

  7. 3.4.5 Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /usr/local/ys/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar

  8. 3.4.6启动hive

  9. bin/hive

  10. 3.5 Kafka

  11. 3.5.1 下载安装包

  12. http://kafka.apache.org/downloads.html

  13. 在linux中使用wget命令下载安装包

  14. wget http://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz

  15. 3.5.2 解压安装包

  16. tar -zxvf /usr/local/ys/soft/kafka_2.11-0.8.2.2.tgz -C /usr/local/ys/app/

  17. cd /usr/local/ys/app/

  18. ln -s kafka_2.11-0.8.2.2 kafka

  19. 3.5.3 修改配置文件

  20. cp

  21. /usr/local/ys/app/kafka/config/server.properties

  22. /usr/local/ys/app/kafka/config/server.properties.bak

  23. vi /usr/local/ys/kafka/config/server.properties

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

输入以下内容:

  1. 3.5.4 分发安装包

  2. scp -r /usr/local/ys/app/kafka_2.11-0.8.2.2 ys02: /usr/local/ys/app/

  3. scp -r /usr/local/ys/app/kafka_2.11-0.8.2.2 ys03: /usr/local/ys/app/

  4. scp -r /usr/local/ys/app/kafka_2.11-0.8.2.2 ys04: /usr/local/ys/app/

  5. 然后分别在各机器上创建软连

  6. cd /usr/local/ys/app/

  7. ln -s kafka_2.11-0.8.2.2 kafka

  8. 3.5.5 再次修改配置文件(重要)

  9. 依次修改各服务器上配置文件的的broker.id,分别是0,1,2不得重复。

  10. 3.5.6 启动集群

  11. 依次在各节点上启动kafka

  12. bin/kafka-server-start.sh config/server.properties

  13. 3.6 Spark

  14. 3.6.1 alt+p 后出现sftp窗口,cd /usr/local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下

  15. 3.6.2 解压安装包

  16. tar -zxvf /usr/local/ys/soft/ spark-1.6.1-bin-hadoop2.6.tgz -C /usr/local/ys/app/

  17. 3.6.3 修改Spark配置文件(两个配置文件spark-env.sh和slaves)

  18. cd /usr/local/ys/soft/spark-1.6.1-bin-hadoop2.6

  19. 进入conf目录并重命名并修改spark-env.sh.template文件

  20. cd conf/

  21. mv spark-env.sh.template spark-env.sh

  22. vi spark-env.sh

  23. 在该配置文件中添加如下配置

  24. export JAVA_HOME=/usr/java/jdk1.7.0_45

  25. export SPARK_MASTER_PORT=7077

  26. export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=ys01,ys02,ys04 -Dspark.deploy.zookeeper.dir=/spark"

  27. 保存退出

  28. 重命名并修改slaves.template文件

  29. mv slaves.template slaves

  30. vi slaves

  31. 在该文件中添加子节点所在的位置(Worker节点)

  32. Ys02

  33. Ys03

  34. Ys04

  35. 保存退出

  36. 3.6.4 将配置好的Spark拷贝到其他节点上

  37. scp -r spark-1.6.1-in-hadoop2.6/ ys02:/usr/local/ys/app

  38. scp -r spark-1.6.1-bin-hadoop2.6/ ys03:/usr/local/ys/app

  39. scp -r spark-1.6.1-bin-hadoop2.6/ ys04:/usr/local/ys/app

  40. 3.6.5 集群启动

  41. 在ys01上执行sbin/start-all.sh脚本

  42. 然后在ys02上执行sbin/start-master.sh启动第二个Master

  43. 3.7 Azkaban

  44. 3.7.1 azkaban web服务器安装

  45. 解压azkaban-web-server-2.5.0.tar.gz

  46. 命令: tar –zxvf /usr/local/ys/soft/azkaban-web-server-2.5.0.tar.gz -C /usr/local/ys/app/azkaban

  47. 将解压后的azkaban-web-server-2.5.0 移动到 azkaban目录中,并重新命名 webserver

  48. 命令: mv azkaban-web-server-2.5.0 ../azkaban

  49. cd ../azkaban

  50. mv azkaban-web-server-2.5.0 webserver

  51. 3.7.2 azkaban 执行服器安装

  52. 解压azkaban-executor-server-2.5.0.tar.gz

  53. 命令:tar –zxvf /usr/local/ys/soft/azkaban-executor-server-2.5.0.tar.gz -C /usr/local/ys/app/azkaban

  54. 将解压后的azkaban-executor-server-2.5.0 移动到 azkaban目录中,并重新命名 executor

  55. 命令:mv azkaban-executor-server-2.5.0 ../azkaban

  56. cd ../azkaban

  57. mv azkaban-executor-server-2.5.0 executor

  58. 3.7.3 azkaban脚本导入

  59. 解压: azkaban-sql-script-2.5.0.tar.gz

  60. 命令:tar –zxvf azkaban-sql-script-2.5.0.tar.gz

  61. 将解压后的mysql 脚本,导入到mysql中:

  62. 进入mysql

  63. mysql> create database azkaban;

  64. mysql> use azkaban;

  65. Database changed

  66. mysql> source /usr/local/ys/soft/azkaban-2.5.0/create-all-sql-2.5.0.sql;

  67. 3.7.4 创建SSL配置

  68. 参考地址: http://docs.codehaus.org/display/JETTY/How+to+configure+SSL

  69. 命令: keytool -keystore keystore -alias jetty -genkey -keyalg RSA

  70. 运行此命令后,会提示输入当前生成 keystor的密码及相应信息,输入的密码请劳记,信息如下(此处我输入的密码为:123456)

  71. 输入keystore密码:

  72. 再次输入新密码:

  73. 您的名字与姓氏是什么?

  74. [Unknown]:

  75. 您的组织单位名称是什么?

  76. [Unknown]:

  77. 您的组织名称是什么?

  78. [Unknown]:

  79. 您所在的城市或区域名称是什么?

  80. [Unknown]:

  81. 您所在的州或省份名称是什么?

  82. [Unknown]:

  83. 该单位的两字母国家代码是什么

  84. [Unknown]: CN

  85. CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=CN 正确吗?

  86. [否]: y

  87. 输入<jetty>的主密码(如果和 keystore 密码相同,按回车):

  88. 再次输入新密码

  89. 完成上述工作后,将在当前目录生成 keystore 证书文件,将keystore 考贝到 azkaban web服务器根目录中.如:cp keystore azkaban/webserver

  90. 3.7.5 配置文件

  91. 注:先配置好服务器节点上的时区

  92. 先生成时区配置文件Asia/Shanghai,用交互式命令 tzselect 即可

  93. 拷贝该时区文件,覆盖系统本地时区配置

  94. cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

  95. 3.7.6 azkaban web服务器配置

  96. 进入azkaban web服务器安装目录 conf目录

  97. 修改azkaban.properties文件

  98. 命令vi azkaban.properties

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114

内容说明如下:

  1. *Azkaban Personalization Settings

  2. azkaban.name=Test #服务器UI名称,用于服务器上方显示的名字

  3. azkaban.label=My Local Azkaban #描述

  4. azkaban.color=#FF3601 #UI颜色

  5. azkaban.default.servlet.path=/index #

  6. web.resource.dir=web/ #默认根web目录

  7. default.timezone.id=Asia/Shanghai #默认时区,已改为亚洲/上海 默认为美国

  8. *Azkaban UserManager class

  9. user.manager.class=azkaban.user.XmlUserManager #用户权限管理默认类

  10. user.manager.xml.file=conf/azkaban-users.xml #用户配置,具体配置参加下文

  11. *Loader for projects

  12. executor.global.properties=conf/global.properties # global配置文件所在位置

  13. azkaban.project.dir=projects #

  14. database.type=mysql #数据库类型

  15. mysql.port=3306 #端口号

  16. mysql.host=localhost #数据库连接IP

  17. mysql.database=azkaban #数据库实例名

  18. mysql.user=root #数据库用户名

  19. mysql.password=Root123456 #数据库密码

  20. mysql.numconnections=100 #最大连接数

  21. * Velocity dev mode

  22. velocity.dev.mode=false

  23. * Jetty服务器属性.

  24. jetty.maxThreads=25 #最大线程数

  25. jetty.ssl.port=8443 #Jetty SSL端口

  26. jetty.port=8081 #Jetty端口

  27. jetty.keystore=keystore #SSL文件名

  28. jetty.password=123456 #SSL文件密码

  29. jetty.keypassword=123456 #Jetty主密码 与 keystore文件相同

  30. jetty.truststore=keystore #SSL文件名

  31. jetty.trustpassword=123456 # SSL文件密码

  32. * 执行服务器属性

  33. executor.port=12321 #执行服务器端

  34. *邮件设置

  35. mail.sender=xxxxxxxx@163.com #发送邮箱

  36. mail.host=smtp.163.com #发送邮箱smtp地址

  37. mail.user=xxxxxxxx #发送邮件时显示的名称

  38. mail.password=********** #邮箱密码

  39. job.failure.email=xxxxxxxx@163.com #任务失败时发送邮件的地址

  40. job.success.email=xxxxxxxx@163.com #任务成功时发送邮件的地址

  41. lockdown.create.projects=false #

  42. cache.directory=cache #缓存目录

  43. 3.7.7azkaban 执行服务器executor配置

  44. 进入执行服务器安装目录conf,修改azkaban.properties

  45. vi azkaban.properties

  46. *Azkaban

  47. default.timezone.id=Asia/Shanghai #时区

  48. * Azkaban JobTypes 插件配置

  49. azkaban.jobtype.plugin.dir=plugins/jobtypes #jobtype 插件所在位置

  50. *Loader for projects

  51. executor.global.properties=conf/global.properties

  52. azkaban.project.dir=projects

  53. *数据库设置

  54. database.type=mysql #数据库类型(目前只支持mysql)

  55. mysql.port=3306 #数据库端口号

  56. mysql.host=192.168.20.200 #数据库IP地址

  57. mysql.database=azkaban #数据库实例名

  58. mysql.user=root #数据库用户名

  59. mysql.password=Root23456 #数据库密码

  60. mysql.numconnections=100 #最大连接数

  61. *执行服务器配置

  62. executor.maxThreads=50 #最大线程数

  63. executor.port=12321 #端口号(如修改,请与web服务中一致)

  64. executor.flow.threads=30 #线程数

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  1. 3.7.8用户配置

  2. 进入azkaban web服务器conf目录,修改azkaban-users.xml

  3. vi azkaban-users.xml 增加 管理员用户

  • 1
  • 2
  • 3
  • 4

  1. 3.7.9 web服务器启动

  2. 在azkaban web服务器目录下执行启动命令

  3. bin/azkaban-web-start.sh

  4. 注:在web服务器根目录运行

  5. 或者启动到后台

  6. nohup bin/azkaban-web-start.sh 1>/tmp/azstd.out 2>/tmp/azerr.out &

  7. 3.7.10执行服务器启动

  8. 在执行服务器目录下执行启动命令

  9. bin/azkaban-executor-start.sh

  10. 注:只能要执行服务器根目录运行

  11. 启动完成后,在浏览器(建议使用谷歌浏览器)中输入https://服务器IP地址:8443 ,即可访问azkaban服务了.在登录中输入刚才新的户用名及密码,点击 login

  12. 3.8 Zeppelin

  13. 参照如下文件:

  14. http://blog.csdn.net/chengxuyuanyonghu/article/details/54915817

  15. http://blog.csdn.net/chengxuyuanyonghu/article/details/54915962

  16. 3.9 HBase

  17. 3.9.1解压

  18. tar –zxvf /usr/local/ys/soft/hbase-0.99.2-bin.tar.gz -C /usr/local/ys/app

  19. 3.9.2重命名

  20. cd /usr/local/ys/app

  21. mv hbase-0.99.2 hbase

  22. 3.9.3修改配置文件

  23. 每个文件的解释如下:

  24. hbase-env.sh

  25. export JAVA_HOME=/usr/local/ys/app/jdk1.7.0_80 //jdk安装目录

  26. export HBASE_CLASSPATH=/usr/local/ys/app/hadoop-2.6.4/etc/hadoop //hadoop配置文件的位置

  27. export HBASE_MANAGES_ZK=false #如果使用独立安装的zookeeper这个地方就是false(此处使用自己的zookeeper)

  28. hbase-site.xml

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37

  1. Regionservers //是从机器的域名

  2. Ys02

  3. ys03

  4. ys04

  5. 注:此处HBase配置是针对HA模式的hdfs

  6. 3.9.4将Hadoop的配置文件hdfs-site.xml和core-site.xml拷贝到HBase配置文件中

  7. cp /usr/local/ys/app/Hadoop-2.6.4/etc/hadoop/hdfs-site.xml /usr/local/ys/app/hbase/conf

  8. cp /usr/local/ys/app/hadoop-2.6.4/etc/hadoop/core-site.xml /usr/local/ys/app/hbase/conf

  9. 3.9.5发放到其他机器

  10. scp –r /usr/local/ys/app/hbase ys02: /usr/local/ys/app

  11. scp –r /usr/local/ys/app/hbase ys03: /usr/local/ys/app

  12. scp –r /usr/local/ys/app/hbase ys04: /usr/local/ys/app

  13. 3.9.6启动

  14. cd /usr/local/ys/app/hbase/bin

  15. ./ start-hbase.sh

  16. 3.9.7查看

  17. 进程:jps

  18. 进入hbase的shell:hbase shell

  19. 退出hbase的shell:quit

  20. 页面:http://master:60010/

  21. 3.10KAfkaOffsetMonitor(Kafka集群的监控程序,本质就是一个jar包)

  22. 3.10.1上传jar包

  23. 3.10.2 运行jar包

  24. nohup java -cp KafkaOffsetMonitor-assembly-0.2.1.jar com.quantifind.kafka.offsetapp.OffsetGetterWeb --zk ys01,ys02,ys04 --refresh 5.minutes --retain 1.day --port 8089 $

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34

4. 集群调优

  1. 4.1 辅助工具尽量不安装到数据或者运算节点,避免占用过多计算或内存资源。

  2. 4.2 dataNode和spark的slave节点尽量在一起;这样运算的时候就可以避免通过网络拉取数据,加快运算速度。

  3. 4.3 Hadoop集群机架感知配置,配置之后可以使得数据在同机架的不同机器2份,然后其他机架机器1份,可是两台机器四台虚机没有必要配感知个人感觉。

  4. 4.4 配置参数调优

  5. 可以参考http://blog.csdn.net/chndata/article/details/46003399

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

第三阶段(辅助工具工学习阶段)

11)Sqoop(CSDN,51CTO ,以及官网)—20小时

  1. 数据导出概念介绍
  2. Sqoop基础知识
  3. Sqoop原理及配置说明
  4. Sqoop数据导入实战
  5. Sqoop数据导出实战、
  6. Sqoop批量作业操作
  7. 如果你准备了解大数据开发或是正在学习大数据开发,欢迎加入我们的大数据学习q群378144993,群里365天每天与大家分享免费的学习教程以及开发工具,你与大咖就差这个圈.

java转大数据的学习路线相关推荐

  1. 大数据全方位学习路线

    大数据全方位学习路线 一.大数据处理流程 上图是一个简化的大数据处理流程图,大数据处理的主要流程包括数据收集.数据存储.数据处理.数据应用等主要环节.下面我们逐一对各个环节所需要的技术栈进行讲解: 1 ...

  2. 大数据人工智能学习路线(小白都可以看懂-从入门到精通)

    大数据&人工智能学习路线 先来看一个大数据网站所需用到的技术图 学习技术 Linux:大数据基础,hadoop.hive.hbase.spark等大数据软件的运行环境和网络环境配置,通常都是搭 ...

  3. Java、大数据开发学习要点(持续更新中...)

    Java.大数据开发学习要点 这里有作者本人学习Java.大数据开发时的详细知识记录,随时根据学习状态更新. 以下是关于

  4. 2019年最炙手可热的大数据行业学习路线指导

    随着国家对大数据政策的倾向越来越多的人听说过这个名词,但对它都可能也是一知半解,今天小编精心为大家整理了大数据相关的所有知识,以及大数据学习的一些资料,希望对大家有所帮助. 什么是大数据 麦肯锡全球研 ...

  5. 大数据技术学习路线指南

    大数据技术作为决策神器,日益在社会治理和企业管理中起到不容忽视的作用,美国,欧盟都已经将大数据研究和使用列入国家发展的战略,类似谷歌,微软,百度,亚马逊等巨型企业也同样把大数据技术视为生命线以及未来发 ...

  6. scala spark 数据对比_IT大牛耗时三个月总结出大数据领域学习路线,网友评论:炸锅了...

    大数据不是某个专业或一门编程语言,实际上它是一系列技术的组合运用. 有人通过下方的等式给出了大数据的定义. 大数据 = 编程技巧 + 数据结构和算法 + 分析能力 + 数据库技能 + 数学 + 机器学 ...

  7. 8年京东大数据架构师推荐的大数据开发学习路线

    一.我们先要了解大数据的工作方向 01.大数据工程师 02.数据分析师 03.大数据科学家 04.其他(数据挖掘本质算是机器学习,不过和数据相关,也可以理解为大数据的一个方向吧) 二.大数据工程师的技 ...

  8. 大数据工程师学习路线

    转载来源:https://blog.csdn.net/GitChat/article/details/78341484 申明: 本文旨在为普通程序员(Java程序员最佳)提供一个入门级别的大数据技术学 ...

  9. 本科大学生的大数据专业学习路线

    普通的二本学校,专业是数据科学与大数据技术,2020级入学,目前大三,所以我会更多站在本专业进行分享 首先,我的目标是毕业之后就业,所以一切努力的方向都是为了就业,仅仅只能为考研考公的同学提供借鉴,不 ...

最新文章

  1. python定义一个字典并遍历字典中的键和值_python字典操作总结
  2. div块内的CSS中心文本(水平和垂直)
  3. 向大家推荐一个.Net游戏引擎:Artificial Engines
  4. IFRAME jquery 获取document对象
  5. 1_boostrap概述
  6. python学习笔记第四节
  7. 配置备份DHCP服务器(LINUX)
  8. Java计算接口请求时间
  9. 基于DPI(深度报文解析)的应用识别2------实际分析
  10. 超级详细的java Collection集合面试题
  11. 万物皆可DAO?一文带你全方位解读DAO类型
  12. 《兔战队》第二卷桥d
  13. php 热搜词,2020 十大网络热搜流行语来了!你知道几个?
  14. codeforces beta round 1
  15. 2023第5届中国(济南)国际福祉及残疾人用品展览会开启招商
  16. 微信机器人终端1.0未来的设想就是做成telegram一样强大的机器人群体集控终端
  17. 在线图片压缩网站TinyPNG
  18. 如何在sqlserver中写存储过程
  19. 【uml】-九种图之活动图(Activity Diagram))
  20. 四级地址库 国家标准的行政区划代码 省市区街道

热门文章

  1. 做短视频怎么赚钱,盈利模式包括哪些模式,如何做短视频自媒体赚钱
  2. Android 怎么实现支持所有View的通用的下拉刷新控件
  3. 2021-08-29
  4. 【已解决】CSDN无法粘贴图片、截图 或者 上传图片一直显示失败
  5. 微信小程序常用组件库收藏备用
  6. 晶体硅太阳能电池产线性能跟踪项目
  7. 小程序如何加入企业微信群聊
  8. 阿里云服务器的mysql安装
  9. 【转】几个ARX取CAD窗口句柄的函数
  10. 80%学生的困惑,学完C/C++之后学什么?