前言

本文隶属于专栏《大数据安装部署》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!


软件要求

Hadoop: cdh5.x, cdh6.x, hdp2.x, EMR5.x, EMR6.x, HDI4.x
Hive: 0.13 - 1.2.1+
Spark: 2.4.7/3.1.1
Mysql: 5.1.17 及以上
JDK: 1.8+
OS: Linux only, CentOS 6.5+ or Ubuntu 16.0.4+


准备

在 node1 执行下面的操作:

建议使用下面的安装包:

Apache Kylin 4.0.2 安装包

解压到指定文件夹:

tar -zxvf apache-kylin-4.0.2-bin.tar.gz -C /opt/bigdata/

配置环境变量 $KYLIN_HOME 指向 Kylin 文件夹。

vim /etc/profile
JAVA_HOME=/usr/java/jdk1.8.0_341-amd64
KYLIN_HOME=/opt/bigdata/apache-kylin-4.0.2-bin
PATH=$PATH:$JAVA_HOME/bin:$KYLIN_HOME/binexport PATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL JAVA_HOME KYLIN_HOME
source /etc/profile

使用脚本下载 spark

download-spark.sh

下载的 Spark 版本是 3.1.3 版本的,Spark 的安装目录在 $KYLIN_HOME/spark 目录下。


JDBC 驱动包

我们需要将 Mysql JDBC 的驱动包放到 $KYLIN_HOME/ext 目录下(没有这个目录需要手动创建)

cp mysql-connector-java.jar /opt/bigdata/apache-kylin-4.0.2-bin/ext/

将 node1 节点的 kylin 安装目录拷贝到 node2 和 node3:

scp -r /opt/bigdata/apache-kylin-4.0.2-bin/ node2:/opt/bigdata/scp -r /opt/bigdata/apache-kylin-4.0.2-bin/ node3:/opt/bigdata/

kylin.properties 配置

vim /opt/bigdata/apache-kylin-4.0.2-bin/conf/kylin.properties

3 个节点的 kylin 配置信息如下,其中 node1 用于查询, node2 和 node3 用于任务执行。


node1

kylin.metadata.url=kylin_test@jdbc,driverClassName=com.mysql.jdbc.Driver,url=jdbc:mysql://node1:3306/kylin,username=kylin,password=1qaz@WSXkylin.env.zookeeper-connect-string=node2:2181kylin.server.cluster-servers-with-mode=node1:7070:query,node2:7070:job,node3:7070:job
kylin.job.scheduler.default=100kylin.server.mode=querykylin.cube.cubeplanner.enabled=true
kylin.server.query-metrics2-enabled=true
kylin.metrics.reporter-query-enabled=true
kylin.metrics.reporter-job-enabled=true
kylin.metrics.monitor-enabled=truekylin.web.dashboard-enabled=true

kylin.metadata.url 配置了 Mysql 元数据库连接信息

kylin.env.zookeeper-connect-string 配置了 ZK 的连接信息

kylin.server.cluster-servers-with-mode 配置了所有 kylin 节点的信息,方便服务自主发现。

kylin.job.scheduler.default=100 配置了可以方便服务自主发现。

kylin.server.mode 配置了当前 kylin 节点的类型(query——代表查询节点,job——代表任务节点,all——代表两种都可以)

kylin.cube.cubeplanner.enabled/kylin.server.query-metrics2-enabled/kylin.metrics.* 可以开启 Cube Planner

Cube Planner 使 Apache Kylin 变得更节约资源。其智能 build 部分 Cube 以最小化 building Cube 的花费且同时最大化服务终端用户查询的利益,然后从运行中的查询学习模式且相应的进行动态的推荐 cuboids。

kylin.web.dashboard-enabled 可以开启 Kylin Dashboard,这个只有 query/all 节点才有用。

Kylin Dashboard 展示有用的 Cube 使用数据,对用户非常重要。


node2/node3

kylin.metadata.url=kylin_test@jdbc,driverClassName=com.mysql.jdbc.Driver,url=jdbc:mysql://node1:3306/kylin,username=kylin,password=1qaz@WSX
kylin.env.zookeeper-connect-string=node2:2181kylin.server.cluster-servers-with-mode=node1:7070:query,node2:7070:job,node3:7070:job
kylin.server.mode=jobkylin.cube.cubeplanner.enabled=true
kylin.server.query-metrics2-enabled=true
kylin.metrics.reporter-query-enabled=true
kylin.metrics.reporter-job-enabled=true
kylin.metrics.monitor-enabled=truekylin.web.dashboard-enabled=falsekylin.job.scheduler.default=100
kylin.server.self-discovery-enabled=true
kylin.job.lock=org.apache.kylin.job.lock.zookeeper.ZookeeperJobLock

node2 和 node3 的配置信息完全一样。

kylin.job.scheduler.default=100
kylin.server.self-discovery-enabled=true

以上配置可以引入基于Curator的主从模式多任务引擎调度器CuratorScheculer

kylin.job.lock=org.apache.kylin.job.lock.zookeeper.ZookeeperJobLock

这个配置可以使得任务引擎高可用。


解决root用户对HDFS文件系统操作权限不够问题

这时如果直接启动 kylin 会报错,因为 HDFS 文件系统中 hdfs 才有超级用户权限,故我们需要以下设置:

[root@node1 ~]# sudo -u hdfs hadoop fs -chown -R root:root /kylin[root@node1 ~]# sudo -u hdfs hadoop fs -chown -R root:root /kylin
[root@node1 ~]# hadoop fs -ls /
Found 3 items
drwxr-xr-x   - root root                0 2022-10-23 16:58 /kylin
drwxrwxrwt   - hdfs supergroup          0 2022-10-23 15:47 /tmp
drwxr-xr-x   - hdfs supergroup          0 2022-10-23 15:47 /user

这时我们在三个节点都运行运行环境检查脚本:

[root@node1 ~]# check-env.sh
Retrieving hadoop conf dir...
...................................................[PASS]
KYLIN_HOME is set to /opt/bigdata/apache-kylin-4.0.2-bin
Checking hive
...................................................[PASS]
Checking hadoop shell
...................................................[PASS]
Checking hdfs working dir
WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.
...................................................[PASS]
WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.
WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.Checking environment finished successfully. To check again, run 'bin/check-env.sh' manually.

这就代表 kylin 可以正常启动了。


启动

在 3 个节点都执行下面的启动命令:

kylin.sh start

如下:

[root@node2 ~]# kylin.sh start
Retrieving hadoop conf dir...
...................................................[PASS]
KYLIN_HOME is set to /opt/bigdata/apache-kylin-4.0.2-bin
Checking hive
...................................................[PASS]
Checking hadoop shell
...................................................[PASS]
Checking hdfs working dir
WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.
...................................................[PASS]
WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.
WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.Checking environment finished successfully. To check again, run 'bin/check-env.sh' manually.
Retrieving hadoop conf dir...
Retrieving Spark dependency...
Start replace hadoop jars under /opt/bigdata/apache-kylin-4.0.2-bin/spark/jars.
Find platform specific jars:/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/client/hadoop-annotations-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/client/hadoop-auth-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/client/hadoop-common-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/hadoop-annotations-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/hadoop-common-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/hadoop-auth-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-client.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-httpfs.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-native-client.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-native-client-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-httpfs-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-client-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-app-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-core-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-shuffle-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-common-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-common-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-api-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-server-web-proxy-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-client-3.0.0-cdh6.3.2.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-server-common-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/htrace-core4-4.2.0-incubating.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/htrace-core4-4.1.0-incubating.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/woodstox-core-5.0.3.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/woodstox-core-5.1.0.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/commons-configuration2-2.1.1.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/woodstox-core-asl-4.4.1.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/re2j-1.1.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/commons-configuration2-2.1.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/stax2-api-3.1.4.jar
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/re2j-1.0.jar  , will replace with these jars under /opt/bigdata/apache-kylin-4.0.2-bin/spark/jars.
Done hadoop jars replacement under /opt/bigdata/apache-kylin-4.0.2-bin/spark/jars.
Start to check whether we need to migrate acl tables
Not HBase metadata. Skip check.A new Kylin instance is started by root. To stop it, run 'kylin.sh stop'
Check the log at /opt/bigdata/apache-kylin-4.0.2-bin/logs/kylin.log
Web UI is at http://node2:7070/kylin

WEB UI

访问 node1 节点的 WEB UI:

http://node1:7070/kylin/login

用户名密码是: ADMIN/KYLIN

登录进去后,就可以看到:

在 System => Instances 中我们可以看到 3 个节点的状态信息

Apache Kylin 4.0.2 集群模式安装部署指南相关推荐

  1. mesos集群模式安装部署

    该文章通过yam的方式进行安装 部署架构 节点 角色 node01 master/slave node02 master/slave node03 master /slave node04 slave ...

  2. Kafka单机、集群模式安装详解(一)

    本文环境如下: 操作系统:CentOS 6 32位 JDK版本:1.8.0_77 32位 Kafka版本:0.9.0.1(Scala 2.11) 1. 所需要的环境 Kafka需要以下运行环境: Ja ...

  3. Solr 11 - Solr集群模式的部署(基于Solr 4.10.4搭建SolrCloud)

    目录 1 SolrCloud结构说明 2 环境的安装 2.1 环境说明 2.2 部署并启动ZooKeeper集群 2.3 部署Solr单机服务 2.4 添加Solr的索引库 3 部署Solr集群服务( ...

  4. Kafka单机、集群模式安装详解(二)

    本文环境如下: 操作系统:CentOS 6 32位 JDK版本:1.8.0_77 32位 Kafka版本:0.9.0.1(Scala 2.11) 接上篇 Kafka单机.集群模式安装详解(一) 6. ...

  5. Apache HAWQ集群的安装部署

    最近Pivotal公司发布了Apache HAWQ的企业版HDB 2.0,因功能强大,性能出色,很多人已经迫不及待想要安装来玩玩了.今天我们就来聊聊怎么部署强大的HAWQ 2.0吧. 企业版的HAWQ ...

  6. [Hadoop集群模式安装与配置全过程]红帽子RatHat6下hadoop集群模式安装(3个节点,master,slave1,slave2)

    红帽子RatHat6下hadoop集群模式安装(3个节点,master,slave1,slave2) 一.学习目标: 使用红帽子RatHat6在虚拟机上搭建hadoop集群,包含3个节点,体验集群分布 ...

  7. Hadoop伪分布式集群的安装部署

    Hadoop伪分布式集群的安装部署Hadoop伪分布式集群的安装部署 首先可以为Linux虚拟机搭建起来的最初状态做一个快照,方便后期搭建分布式集群时多台Linux虚拟机的准备. 一.如何为虚拟机做快 ...

  8. CentOS下Hive2.0.0集群模式安装详解

    本文环境如下: 操作系统:CentOS 6 32位 Hive版本:2.0.0 JDK版本:1.8.0_77 32位 Hadoop版本:2.6.4 MySQL版本:5.6.30 1. 准备工作 1.1 ...

  9. Apache Dolphinscheduler —— CDH6.3.2集群模式部署(Cluster)

    Apache Dolphinscheduler 一.前期准备 1.基础环境配置 2.下载二进制tar.gz包 3.创建用户 4.配置hosts和ssh 5.数据库初始化 二.Apache Dolphi ...

最新文章

  1. 实践基于REST风格的Webservice(PHP,C#)
  2. .net安装部署中添加卸载程序简单方法
  3. 14.深度学习练习:Face Recognition for the Happy House
  4. Cython 3.0 中文文档校对活动 | ApacheCN
  5. PAT(Basic Level)--个位数统计
  6. EH使用IPMI基础操作
  7. 从多云共存到多云融合:2020年多云管理市场展望
  8. snmp trap 与snmp相关介绍、安装、命令以及Trap的发送与接收java实现
  9. UTONMOS:中国区块链专利申请数量占全球总量的84%
  10. access如何求平均单价_ACCESS中计算日均值
  11. 什么是http服务器
  12. C语言实践项目:2019年个税计算器
  13. android波浪动画简书,Android贝塞尔曲线————波浪效果(大波浪)
  14. java飞机大战程序图片不显示
  15. VMware Workstation 11序列号一枚
  16. 常见国产卫星参数介绍
  17. 新浪微博 QQ登录 登陆授权 V1.0
  18. 深圳市龙华区关于规范产业用房租赁市场稳定租赁价格的实施细则(修订)
  19. ABAP开发 扫雷小游戏
  20. 密码学——复杂度问题

热门文章

  1. 生成器 生成器函数 各种推导式 生成器表达式
  2. 中M22春C、Java入门练习-7.10
  3. 各种语音编码带宽计算
  4. cad四边形展开lisp_快速绘图与展开程序命令集下载-钣金件快速绘图与展开程序CAD插件下载r2.10 免费版-西西软件下载...
  5. matlab中axis square和axis equal的区别
  6. Kotlin-20.代理/委托属性(delegated properties)
  7. Ceph分布式存储实践应用之集群测试验证(Rados运用)
  8. 【Java EE 初阶】如何保证线程安全二
  9. 蓝牙 A2DP 音频传输格式-全面解析
  10. 女生梦想中的露营胜地:安化云台山风景区星空露营公园