前言

Cloudera与Hortonworks合并后,再去用CDH、CDP与HDP的Cloudera Manager与Ambari总是没安逸了。可白piao的CDH最高版本6.3.2,组件相对来说也比较古老,生产环境的CDH也陆续要脱保了。甲方爸爸不差钱可以交保护费,我等穷人嘛,白piao一时爽,一直白piao一直爽,能白piao的机会当然是不能放过。笔者没那么勤奋,懒得部署Apache组件了【需要考虑的兼容性、编译等问题很多】,图省心省力部署了一套USDP2的双集群。

硬件配置

双路e5 2696v3 256G内存主机

主板:x99f8d
CPU:e5 2696v3 *2 【36核72线程】
内存条:DDR4 ECC 32G *8 【256G】
显卡:GT730 【2G显存】
散热器:ta 120ex *2 【单风扇】
SSD:MX500 2T *2 【4T】
HDD:NAS拆的酷狼 4T
电源:GX1000 【1000W】
机箱:614PC 【标配2风扇+套装3风扇】
显示器:13.3寸便携 【2K】
键鼠:笔记本淘汰的一套 【USB口】
网卡:USB无线网卡

花销1w左右,省着点8k也够。

虚拟机准备

制作7台虚拟机

安装包下载

USDP官网,含下载路径及操作指南

安装部署

准备路径

[root@zhiyong1 ~]# cd ..
[root@zhiyong1 /]# mkdir /data
[root@zhiyong1 /]# mkdir -p /opt/usdp-srv/

上传文件

将httpd-rpms.tar.gz 、mirror.tgz、epel.tgz放置到/data
将usdp-01-master-privatization-free-2.X.tar.gz放置到/opt/usdp-srv/
[root@zhiyong1 usdp-srv]# ll
总用量 7409020
-rw-r--r--. 1 root root 7586834393 3月   1 21:38 usdp-01-master-privatization-free-2.X.tar.gz
[root@zhiyong1 usdp-srv]# tar -zxvf usdp-01-master-privatization-free-2.X.tar.gz

其中的一些安装包:

usdp/repository/2.0.0.0/influxdb-1.8.0.tar.gz
usdp/repository/2.0.0.0/usdpmonitor-1.0.0.tar.gz
usdp/repository/2.0.0.0/alertmanager-0.21.0.tar.gz
usdp/repository/2.0.0.0/prometheus-2.18.1.tar.gz
usdp/repository/2.0.0.0/grafana-6.5.1.tar.gz
usdp/repository/2.0.0.0/node_exporter-1.0.0.tar.gz
usdp/repository/2.0.0.0/phoenix-5.0.0.tar.gz
usdp/repository/2.0.0.0/tez-0.10.0.tar.gz
usdp/repository/2.0.0.0/spark-3.0.1.tar.gz
usdp/repository/2.0.0.0/zkui-2.0.0.tar.gz
usdp/repository/2.0.0.0/elasticsearch-7.8.0.tar.gz
usdp/repository/2.0.0.0/zookeeper-3.4.13.tar.gz
usdp/repository/2.0.0.0/zeppelin-0.9.0.tar.gz
usdp/repository/2.0.0.0/tez-0.10.0-dependency.tar.gz
usdp/repository/2.0.0.0/kibana-7.8.0.tar.gz
usdp/repository/2.0.0.0/sqoop-1.4.7.tar.gz
usdp/repository/2.0.0.0/hadoop-3.1.1.tar.gz
usdp/repository/2.0.0.0/kafka-2.11-2.0.1.tar.gz
usdp/repository/2.0.0.0/flume-1.9.0.tar.gz
usdp/repository/2.0.0.0/kafkaeagle-2.0.6.tar.gz
usdp/repository/2.0.0.0/neo4j-3.5.28.tar.gz
usdp/repository/2.0.0.0/hbase-2.1.10.tar.gz
usdp/repository/2.0.0.0/hue-4.8.0.tar.gz
usdp/repository/2.0.0.0/flink-1.13.2.tar.gz
usdp/repository/2.0.0.0/ranger-2.1.0.tar.gz
usdp/repository/2.0.0.0/hive-3.1.2.tar.gz
usdp/repository/2.0.0.0/dolphinscheduler-2.0.0.tar.gz

可以大致看出版本不算太老。还算全面,当然用得上用不上另说,我可以不用,但不希望用的时候没有。。。白piao版少几个组件,Kylin、Atlas、Livy、Alluxio之类的,只好自己慢慢手动安装。Flink也老了点,体验不到1.14流批一体的欢乐。Kerberos认证暂时也没有自动化部署的方式。

准备安装

[root@zhiyong1 usdp-srv]# cd usdp/
[root@zhiyong1 usdp]# ll
总用量 4
drwxr-xr-x. 2 root root   33 12月 29 15:36 agent
drwxr-xr-x. 2 root root  136 12月 31 14:39 bin
drwxr-xr-x. 2 root root   65 12月 29 14:48 config
drwxr-xr-x. 2 root root  137 12月 29 14:46 jmx_exporter
drwxr-xr-x. 3 root root   21 12月 29 14:48 license
drwxr-xr-x. 2 root root    6 12月 29 14:48 logs
drwxr-xr-x. 2 root root   35 12月 29 14:46 recommend
drwxr-xr-x. 7 root root   73 12月 29 14:48 repair
drwxr-xr-x. 3 root root   21 12月 29 14:46 repository
drwxr-xr-x. 2 root root 4096 12月 29 15:34 scripts
drwxr-xr-x. 2 root root   34 12月 29 15:35 server
drwxr-xr-x. 2 root root   29 12月 29 14:48 sql
drwxr-xr-x. 4 root root   32 12月 29 15:30 templated
drwxr-xr-x. 2 root root    6 12月 29 14:48 verify
drwxr-xr-x. 2 root root   79 12月 31 14:49 versions[root@zhiyong1 usdp]# cd ./repair/
[root@zhiyong1 repair]# ll
总用量 8
drwxr-xr-x. 2 root root 4096 12月 29 15:51 bin
drwxr-xr-x. 2 root root  105 12月 29 15:43 config
drwxr-xr-x. 2 root root 4096 12月 30 10:47 packages
drwxr-xr-x. 2 root root  189 12月 29 14:48 remove
drwxr-xr-x. 2 root root   23 12月 30 10:45 sbin[root@zhiyong1 repair]# cd ./config/
[root@zhiyong1 config]# ll
总用量 12
-rwxr-xr-x. 1 root root 723 12月 29 15:44 repair-host-info-add.properties
-rwxr-xr-x. 1 root root 507 12月 29 15:44 repair-host-info.properties
-rwxr-xr-x. 1 root root 666 12月 29 15:44 repair.properties[root@zhiyong1 config]# vim repair.properties

修改为:

# Set the YUM source host IP
yum.repo.host.ip=192.168.88.100#The Host information for installing the NMAP service
namp.server.ip=192.168.88.100
namp.server.port=22
namp.server.password=123456# The Host information for installing the NTP service(Master)
ntp.master.ip=192.168.88.100# Install MySQL machine node information
mysql.ip=192.168.88.100
mysql.host.ssh.port=22
mysql.host.ssh.password=123456# Set the MYSQL database login password
mysql.password=123456# The total number of machines needed to be repaired.
repair.host.num=7# The total number of added machines needed to be repaired.
repair.add.host.num=0# Common Settings.
repair.log.dir=./logs

修改配置;

[root@zhiyong1 config]# vim repair-host-info.properties

修改为:

# 1.Please provide the information of hosts needed to be repaired in the format specified below
# 2.usdp.ip.i(eg:i=1,2,3.....):
# 3.usdp.password.i:
# 4.usdp.ssh.port.i:
# 5.usdp.ssh.port.hostname.i:
usdp.ip.1=192.168.88.100
usdp.password.1=123456
usdp.ssh.port.1=22
usdp.ssh.port.hostname.1=zhiyong1usdp.ip.2=192.168.88.101
usdp.password.2=123456
usdp.ssh.port.2=22
usdp.ssh.port.hostname.2=zhiyong2usdp.ip.3=192.168.88.102
usdp.password.3=123456
usdp.ssh.port.3=22
usdp.ssh.port.hostname.3=zhiyong3usdp.ip.4=192.168.88.103
usdp.password.4=123456
usdp.ssh.port.4=22
usdp.ssh.port.hostname.4=zhiyong4usdp.ip.5=192.168.88.104
usdp.password.5=123456
usdp.ssh.port.5=22
usdp.ssh.port.hostname.5=zhiyong5usdp.ip.6=192.168.88.105
usdp.password.6=123456
usdp.ssh.port.6=22
usdp.ssh.port.hostname.6=zhiyong6usdp.ip.7=192.168.88.106
usdp.password.7=123456
usdp.ssh.port.7=22
usdp.ssh.port.hostname.7=zhiyong7

执行修复脚本

[root@zhiyong1 config]# cd /opt/usdp-srv/usdp/repair/sbin/
[root@zhiyong1 sbin]# ll
总用量 116
-rwxr-xr-x. 1 root root 117392 12月 29 15:44 repair.sh
[root@zhiyong1 sbin]# bash repair.sh initAll

等到出现:

SUCCESS: All encryption-free login links have been repaired successfully
SUCCESS: All closing firewall links have been repaired successfully
SUCCESS: All closing swap links have been repaired successfully
SUCCESS: set hostname links have been repaired successfully
SUCCESS: Set  ntp  have been repaired successfully
SUCCESS: Set  libxslt devel  have been repaired successfully
SUCCESS: Set  psmisc  have been repaired successfully
SUCCESS: Set mysql-client links have been repaired successfully
SUCCESS: Set  mysql-python  have been repaired successfully
SUCCESS: All transparent_hugepage links have been repaired successfully
SUCCESS: Set JDK links have been repaired successfully
SUCCESS: Set xdg-utils links have been repaired successfully
SUCCESS: Set redhat-lsb links have been repaired successfully
SUCCESS: Set python-devel links have been repaired successfully
SUCCESS: Set cyrus-sasl links have been repaired successfully
SUCCESS: Set python36-devel links have been repaired successfully
SUCCESS: Set gcc-c++ links have been repaired successfully
SUCCESS: Set  Cython links have been repaired successfully
SUCCESS: Set  Six links have been repaired successfully
SUCCESS: Set  websocket-client links have been repaired successfully
SUCCESS: Set  ecdsa links have been repaired successfully
SUCCESS: Set  pytest-runner links have been repaired successfully
SUCCESS: Set krb5-devel links have been repaired successfully
The USDP deployment environment of all nodes has been repaired successfully . Please proceed to the next step

说明脚本执行成功。

刷新环境变量

在7台机器都手动执行:

[root@zhiyong1 sbin]# source /etc/profile

配置MySQL

[root@zhiyong1 sbin]# vim /opt/usdp-srv/usdp/config/application-server.yml

修改这一段:

datasource:type: com.zaxxer.hikari.HikariDataSource#    driver-class-name: org.gjt.mm.mysql.Driverdriver-class-name: com.p6spy.engine.spy.P6SpyDriverurl: jdbc:p6spy:mysql://192.168.88.100:3306/db_udp?useUnicode=true&characterEncoding=utf-8&useSSL=falseusername: rootpassword: 123456

启动集群

[root@zhiyong1 sbin]# cd /opt/usdp-srv/usdp/
[root@zhiyong1 usdp]# bin/start-udp-server.sh
BASE_PATH: /opt/usdp-srv/usdp/bin
JMX_PATH: /opt/usdp-srv/usdp/jmx_exporter
ln -s /opt/usdp-srv /data/usdp-srv
ln -s /opt/usdp-srv/srv/udp /srv/
ln -s /data/var/log/udp /var/log/
REPAIR_PATH: /opt/usdp-srv/usdp/repair
UDP_PATH: /opt/usdp-srv/usdp
REPAIR_BIN_PATH: /opt/usdp-srv/usdp/repair/bin
REPAIR_SBIN_PATH: /opt/usdp-srv/usdp/repair/sbin
PACKAGES_PATH: /opt/usdp-srv/usdp/repair/packages
nmap-6.40-19.el7.x86_64
nmap existsUDP Server is running with: 52552
Done.

集群启动成功。此时Server的可用内存:

[root@zhiyong1 usdp]# free -mtotal        used        free      shared  buff/cache   available
Mem:          31994        2631         216          13       29146       28813
Swap:             0           0           0

Worker的可用内存:

[root@zhiyong2 packages]# free -mtotal        used        free      shared  buff/cache   available
Mem:          15867         243        8921          11        6701       15175
Swap:             0           0           0

打开Web UI

浏览器:

http://192.168.88.100/login

即可创建用户。都写Zhiyong1。

软件版本

安装组件

点下一步安装组件:


确认并联通节点:

检查环境是否正确:

选择推荐方案A做全量配置:


可以看到:





智能推荐:

有一些默认配置:


下一步等待安装完成:

都绿了就可以完成:

可以看到集群运行状态暂时良好【用不了多久就会JVM堆栈内存溢出导致组件宕掉】:

【建议:16G是能体验的最低配置,不搞HA,只启动最基础的HDFS、HBASE、KAFKA等服务的备用集群可以这么搞,主集群32G内存是组件全开不宕的最低要求】

默认的密码

服务名称 账号 密码
Grafana hadoop hadoop
Hue hadoop hadoop
Zeppelin hadoop hadoop
Airflow hadoop hadoop
ZKUI hadoop hadoop
KafkaEagle admin 123456
Ranger admin admin
DolphinSchedule admin hadoop

默认的端口

服务名称 端口号
Flink 8082
Hive 10002
Spark 4000
Tez 9999
Yarn 8088、19888、8188
Hbase 16010
HDFS 50070
AlertManager 9093
Grafana 3000
Prometheus 9090
Hue 8888
KafkaEagle 8048
Kibana 5601
Zepplin 28080
Zkui 9099
DolphinScheduler 12345
Ranger 6080

部署说明

USDP官网部署说明

测试

[root@zhiyong2 bin]# pwd
/opt/usdp-srv/srv/udp/2.0.0.0/hdfs/bin
[root@zhiyong2 bin]# ./hadoop fs -ls /zhiyong-1/user/hive
Found 1 items
drwxrwxrwx   - hadoop supergroup          0 2022-03-01 23:08 /zhiyong-1/user/hive/warehouse

可以访问到数据。

再添加一套集群

在上方可以找到切换集群的选项,然后和之前的操作一致。部署后:


当前资源占用:

不推荐128G以下内存的机器搭建Vmware双集群,撑死一个就够了。

笔者的虚拟机全部放在SSD以加快运行速度。

最后可以打快照,压缩存档。安装一次需要40分钟+。

内存溢出

组件全开时,用不了多久就会发生JVM堆内存溢出。笔者之后将zhiyong2->zhiyong4的内存提升到32G,zhiyong5->zhiyong7则只开启必要的Zookeeper、HDFS、HBase、Kafka做备用集群。稳定性有了少许提高。这2套集群还是很吃内存的。

致谢

感谢UCloud如此大方地让我等穷人可以白piao大数据集群管理工具USDP。对于新手而言,大数据组件的安装相当友好。安装部署相较CDH、CDP与HDP容易太多了。

新版本已经取消了授权操作,更是简化了操作步骤。

对于大数据开发攻城狮而言,也可以抽出更多精力放在Java/Scala/SQL开发而不是组件兼容性适配、源码编译这些琐碎的小事上。

USDP使用笔记(二) 部署免费的USDP大数据双集群替代CDH CDP与HDP相关推荐

  1. 离线部署 CDH 5.12.1 及使用 CDH 部署 Hadoop 大数据平台集群服务

    Cloudera Manager Cloudera Manager 分为两个部分:CDH和CM. CDH是Cloudera Distribution Hadoop的简称,顾名思义,就是cloudera ...

  2. 离线部署 CDH 6.2 及使用 CDH 部署 Hadoop3 大数据平台集群服务

    Cloudera Manager Cloudera Manager 分为两个部分:CDH和CM. CDH是Cloudera Distribution Hadoop的简称,顾名思义,就是cloudera ...

  3. 现学现用大数据分布式集群环境部署

    导读:        随着大数据时代的到来,传统的GIS分析工具越来越难以满足对超大体量空间数据的分析需求.SuperMap iServer 9D(本文简称iServer)实现了地理信息服务的分布式集 ...

  4. 尚硅谷大数据技术Zookeeper教程-笔记01【Zookeeper(入门、本地安装、集群操作)】

    视频地址:[尚硅谷]大数据技术之Zookeeper 3.5.7版本教程_哔哩哔哩_bilibili 尚硅谷大数据技术Zookeeper教程-笔记01[Zookeeper(入门.本地安装.集群操作)] ...

  5. 如何创建免费的Hyper-V Server故障转移集群

    尽管可能使Windows Server授权模型更加复杂,但用户还是可以使用免费Hyper-V Server来创建容错环境以及故障转移集群. 微软在很久之间就已经推出免费版Hyper-V Server, ...

  6. 《Linux运维实战:Centos7.6基于ansible一键离线部署mongodb4.2.23容器版副本集群》

    一.部署背景 由于业务系统的特殊性,我们需要针对不同的客户环境部署 mongodb副本集群,由于大都数用户都是专网环境,无法使用外网,为了更便捷,高效的部署,针对业务系统的特性,我这边编写了基于ans ...

  7. Kettle分布式集群安装部署详细步骤和使用分布式Kettle集群示例

    Kettle分布式集群安装部署详细步骤和使用分布式Kettle集群示例 一.下载kettle和mysql驱动 二.相关技术博客 三.Kettle分布式集群环境准备 四.解压kettle 五.执行Kit ...

  8. k8s部署有状态(StatefulSet)zk-kafka集群

    k8s部署有状态(StatefulSet)zk-kafka集群 一共是五台服务器: 功能 IP node-1 192.168.10.201 node-2 192.168.10.202 node-3 1 ...

  9. 基于Kubeadm部署Kubernetes1.13.3 HA 高可用集群

    Table of Contents 目录 基于Kubeadm部署Kubernetes1.13.3 HA 高可用集群 01. 部署目的 1.1 Kubernetes的特性 1.2 贴微服务,开发环境快速 ...

  10. Ambari安装之部署3个节点的HA分布式集群

    前期博客 Ambari安装之部署单节点集群 其实,按照这个步骤是一样的.只是按照好3个节点后,再做下HA即可. 部署3个节点的HA分布式集群 (1)添加机器 和添加服务的操作类似,如下图 之后的添加a ...

最新文章

  1. 如何在JavaScript中切片和拼接数组
  2. 六间房与花椒直播重组首次交割完成
  3. java零基础学习java规划
  4. cocos2d-x初探学习笔记(21)--精灵类
  5. java怎么生成字母_java自动生成字母
  6. Mac pycharm flask 用内网ip 运行 web
  7. 全志A20单独烧录内核
  8. Win11怎么设置桌面软件小图标 Win11设置桌面软件小图标教程
  9. 47 CO配置-控制-利润中心会计-设置实际数据的控制参数
  10. java中如果需要返回多个值怎么办
  11. Linux学习总结(31)——工作中常用的Linux脚本和命令
  12. 初探 Go 的编译命令执行过程
  13. PAIP.DB4O与SQL配合使用在海量数据下.txt
  14. 极客大学产品经理训练营 用例Use Case 第8课总结
  15. intellij idea 导出可执行jar
  16. 四叉树——图片应用实例
  17. 红外遥控的发射和接收原理
  18. 零基础新手应该如何学习平面设计
  19. 手机怎样查看计算机使用记录,如何查看电脑使用记录
  20. 迅雷服务器IP地址列表的获取办法

热门文章

  1. cocos creator全局开关音效设置之静音开关
  2. 大数据基础课17 大数据环境下如何保护隐私
  3. 路由器回执路由配置_如何用console线连接路由器进行初始配置-----无私奉献版(转载请注明出处)...
  4. android短信验证码自动填写
  5. Excel的窗口如何冻结与拆分?
  6. 显微镜下的大明——第一个故事
  7. java 邮件批量发送邮件_利用Java实现电子邮件的批量发送[转载]
  8. 跨专业北邮计算机考研,北京邮电大学跨专业考研心得
  9. excel合并两列内容_办公教程:Excel如何快速将两列内容合并成一列
  10. 16G DWDM SFP+光模块特性及解决方案