编译

一、环境

  • JDK1.8 下载地址 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
  • MAVEN3.5 下载地址 http://maven.apache.org/download.cgi
maven是免安装的,这点很棒,直接下载来,解压即可。
但是要在/etc/profile 中加上环境变量
export MAVEN_HOME=/opt/maven3.6.1
export PATH=$PATH:$MAVEN_HOME/bin修改setting.xml文件增加阿里云配置<mirror><id>nexus-aliyun</id><mirrorOf>*,!cloudera</mirrorOf><name>Nexus aliyun</name><url>http://maven.aliyun.com/nexus/content/groups/public</url></mirror>使用一下命令验证
[root@hadoop3 conf]# mvn -v
Apache Maven 3.6.3 (cecedd343002696d0abb50b32b541b8a6ba2883f)
Maven home: /opt/maven3.6.3
Java version: 1.8.0_144, vendor: Oracle Corporation, runtime: /usr/java/jdk1.8/jre
Default locale: en_US, platform encoding: UTF-8
OS name: "linux", version: "3.10.0-1127.13.1.el7.x86_64", arch: "amd64", family: "unix"
  • python2.7

二、下载atlas

http://atlas.apache.org/#/Downloads

我下载的是2.1.0

三、编译准备

解压在/opt 下 ,并修改为atlas2.1

vim /opt/atlas2.1/pom.xml

找到一下版本,修改

<hadoop.version>3.0.0</hadoop.version>
<hbase.version>2.1.0</hbase.version>
<kafka.version>2.2.1</kafka.version>
<zookeeper.version>3.4.5</zookeeper.version>

vim /opt/atlas2.1/distro/src/conf/atlas-log4j.xml

找到以下代码,将上面的注释放开

    <appender name="perf_appender" class="org.apache.log4j.DailyRollingFileAppender"><param name="file" value="${atlas.log.dir}/atlas_perf.log" /><param name="datePattern" value="'.'yyyy-MM-dd" /><param name="append" value="true" /><layout class="org.apache.log4j.PatternLayout"><param name="ConversionPattern" value="%d|%t|%m%n" /></layout></appender><logger name="org.apache.atlas.perf" additivity="false"><level value="debug" /><appender-ref ref="perf_appender" /></logger>

四、开始编译

cd /opt/atlas2.1

mvn clean -DskipTests package -Denforcer.skip=true  -Drat.skip=true -Pdist -X

中途遇到了 enforcer 和 rat的错误,就使用了上面的命令,跳过即可。

Could not resolve dependencies for project org.apache.atlas:sqoop-bridge-shim:jar:2.1.0: Could not find artifact org.apache.sqoop:sqoop:jar:1.4.6.2.3.99.0-195 in nexus-aliyun (http://maven.aliyun.com/nexus/content/groups/public) -> [Help 1]

这种错误,是没有sqoop的相关依赖,

https://mvnrepository.com/artifact/org.apache.sqoop/sqoop/1.4.6.2.3.99.0-195

下载完后,记住,只要将pom和jar文件传到linux的 /root/.m2/repository/org/apache/sqoop/sqoop/1.4.6.2.3.99.0-195 目录即可!!!不要再传其他的文件了。如果这目录下原来有东西,清空它在放进去。

编译的过程,还是有点长的,耐心等待即可。

集成

编译完成后,在 /opt/atlas2.1/distro/target 在有以下内容 ,我们要的就是 apache-atlas-2.1.0-bin.tar.gz

找个目录将其解压,我将他解压在了 /usr/local/src/atlas下

1.与hbase集成

1.设立软连接,链接配置文件
ln -s /etc/hbase/conf/ /usr/local/src/atlas/apache-atlas-2.1.0/conf/hbase/2.vim conf/atlas-application.properties
atlas.graph.storage.hostname=hadoop1:2181,hadoop2:2181,hadoop3:2181#修改地址,是外部能够访问
atlas.rest.address=http://node01:21000
#访问hbase
atlas.audit.hbase.zookeeper.quorum=hadoop1:2181,hadoop2:2181,hadoop3:21813.vim conf/atlas-env.shexport HBASE_CONF_DIR=/usr/local/src/atlas/apache-atlas-2.1.0/hbase/conf
export MANAGE_LOCAL_HBASE=false
export MANAGE_LOCAL_SOLR=true
export ATLAS_SERVER_OPTS="-server -XX:SoftRefLRUPolicyMSPerMB=0
-XX:+CMSClassUnloadingEnabled -XX:+UseConcMarkSweepGC
-XX:+CMSParallelRemarkEnabled -XX:+PrintTenuringDistribution
-XX:+HeapDumpOnOutOfMemoryError
-XX:HeapDumpPath=dumps/atlas_server.hprof
-Xloggc:logs/gc-worker.log -verbose:gc
-XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=10
-XX:GCLogFileSize=1m -XX:+PrintGCDetails -XX:+PrintHeapAtGC
-XX:+PrintGCTimeStamps"#优化 JDK1.8(以下需要16G内存)
export ATLAS_SERVER_HEAP="-Xms1536m -Xmx1536m
-XX:MaxNewSize=512m -XX:MetaspaceSize=50M
-XX:MaxMetaspaceSize=128m"

2.集成solr

由于solr必不可少,但是又用不到,所以我就安装了单个节点的solr

1.vim conf/atlas-application.properties
atlas.graph.index.search.solr.mode=cloud
#这里只要写一个zookeeper的地址即可,写多了反而不行,是个坑
atlas.graph.index.search.solr.zookeeper-url=hadoop3:2181/solr
atlas.graph.index.search.solr.zookeeper-connect-timeout=60000
atlas.graph.index.search.solr.zookeeper-session-timeout=60000
atlas.graph.index.search.solr.wait-searcher=true2.在solr创建所需的数据
#将Atlas的conf目录下Solr文件夹同步到Solr的目录下,更名,然后发到各个节点(使集群solr能读到atlas的solr配置)
cp -r /opt/module/atlas/conf/solr /opt/cloudera/parcels/CDH/lib/solr/cd /opt/cloudera/parcels/CDH/lib/solr/mv solr atlas_solrscp -r /opt/cloudera/parcels/CDH/lib/solr/atlas_solr hadoop2:/opt/cloudera/parcels/CDH/lib/solr/scp -r /opt/cloudera/parcels/CDH/lib/solr/atlas_solr hadoop1:/opt/cloudera/parcels/CDH/lib/solr/#Solr创建collection,atlas相关索引保存的目录
/opt/cloudera/parcels/CDH/lib/solr/bin/solr create -c vertex_index -d /opt/cloudera/parcels/CDH/lib/solr/atlas_solr -force -shards 3 -replicationFactor 2/opt/cloudera/parcels/CDH/lib/solr/bin/solr create -c edge_index -d /opt/cloudera/parcels/CDH/lib/solr/atlas_solr  -force -shards 3 -replicationFactor 2/opt/cloudera/parcels/CDH/lib/solr/bin/solr create -c fulltext_index -d /opt/cloudera/parcels/CDH/lib/solr/atlas_solr -force -shards 3 -replicationFactor 2#如果需要删除collection,用一下命令
/opt/cloudera/parcels/CDH/lib/solr/bin/solr delete -c vertex_index
/opt/cloudera/parcels/CDH/lib/solr/bin/solr delete -c edge_index
/opt/cloudera/parcels/CDH/lib/solr/bin/solr delete -c fulltext_index

在solr的对应页面上,可以看到相关节点数据 http://hadoop3:8983/solr/#/~cloud

3.集成kafka

1.vim conf/atlas-application.properties
atlas.notification.embedded=false
atlas.kafka.data=${sys:atlas.home}/data/kafka
#这里也只要写一个zookeeper地址即可,是个坑
atlas.kafka.zookeeper.connect=hadoop3:2181
atlas.kafka.bootstrap.servers=hadoop1:9092,hadoop2:9092,hadoop3:9092
atlas.kafka.zookeeper.session.timeout.ms=4000
atlas.kafka.zookeeper.connection.timeoutms=2000
atlas.kafka.zookeeper.sync.time.ms=20
atlas.kafka.auto.commit.interval.ms=1000
atlas.kafka.hook.group.id=atlas
#自动提交
atlas.kafka.enable.auto.commit=true2.创建topic
kafka-topics --zookeeper hadoop1:2181,hadoop2:2181,hadoop3:2181 --create --replication-factor 2 --partitions 3 --topic ATLAS_HOOKkafka-topics --zookeeper hadoop1:2181,hadoop2:2181,hadoop3:2181 --create --replication-factor 2 --partitions 3 --topic ATLAS_ENTITIESkafka-topics --zookeeper hadoop1:2181,hadoop2:2181,hadoop3:2181 --create --replication-factor 3 --partitions 3 --topic _HOATLASOK

4.集成HIVE

  • 搜索hive-site

1.前面2个
<property><name>hive.exec.post.hooks</name><value>org.apache.atlas.hive.hook.HiveHook,org.apache.hadoop.hive.ql.hooks.LineageLogger</value></property>2.后面的
<property><name>hive.exec.post.hooks</name><value>org.apache.atlas.hive.hook.HiveHook,org.apache.hadoop.hive.ql.hooks.LineageLogger</value></property><property><name>hive.reloadable.aux.jars.path</name><value>/usr/local/src/atlas/apache-atlas-2.1.0/hook/hive</value></property>
  • 环境高级配置代码段(安全阀)

HIVE_AUX_JARS_PATH=/usr/local/src/atlas/apache-atlas-2.1.0/hook/hive

  • 辅助

/usr/local/src/atlas/apache-atlas-2.1.0/hook/hive

重启hive,

之后将 /usr/local/src/atlas/apache-atlas-2.1.0/hook/hive 分发到hive的节点

然后添加环境变量

vi /etc/profile
export HIVE_HOME=/opt/cloudera/parcels/CDH/lib/hive
export HIVE_CONF_DIR=/etc/hive/conf
export PATH=$HIVE_HOME/bin:$PATHsource /etc/profile

最后导入hive元数据

执行 ./bin/import-hive.sh 要求数据账号密码,都是admin

启动

./bin/atals_start.sh

CDH6 安装 Apache atlas相关推荐

  1. Apache Atlas 安装及入门

    介绍 Apache Atlas 用来管理hive元数据 安装 # 解压更名 tar xvfz apache-atlas-1.0.0-sources.tar.gz cd apache-atlas-sou ...

  2. Apache Atlas 安装部署

    Apache Atlas 安装部署 1.Atlas 原理及相关概念 2.安装前置条件 3.安装Hbase 4.安装Solr 5.安装kafka 6.编译Atlas 7.安装Atlas 8.集成hive ...

  3. Apache Atlas 安装

    1.从官网下载源码http://atlas.apache.org/Downloads.html ,本项目选择source 1.0.0: 2.下载好包后,上传到服务器中某个机器上:解压包: tar -z ...

  4. Apache Atlas服务安装

    Atlas架构: Atlas 是一组可扩展和可扩展的核心基础治理服务--使企业能够有效且高效地满足其在 Hadoop 中的合规性要求,并允许与整个企业数据生态系统集成. Apache Atlas 为组 ...

  5. Apache Atlas 2.3.0 安装部署

    安装前环境准备 hadoop 3.1.0 hbase 2.3.4 hive 3.1.3 solr 7.7.3 zookeeper 3.5.7 kafka 2.11-2.4.1 atlas 2.3.0 ...

  6. Apache Atlas 1.2.0 安装部署

    组件版本: Hive 1.1.0 CDH 5.15.0 Atlas 1.2.0 Centos 8 Maven 3.6.3 文章目录 Java 环境安装 Atlas编译安装 下载源码包 解压编译 Atl ...

  7. apache atlas 2.1.0的安装

    1.Atlas 架构原理 2.atlas安装 1)Atlas 官网地址:https://atlas.apache.org/ 2)文档查看地址:https://atlas.apache.org/2.1. ...

  8. Apache Atlas安装部署报错之解决方案

    说明:在按照官网文档安装Atlas的过程中,遇到了各种各样的问题,现将本人在实践中,成功安装部署的过程分享给大家. 一.下载安装包 下载安装JDK.(不要用Linux自带的jdk,且atlas2.0要 ...

  9. apache atlas 2.0 详细安装手册

    1.1 atlas编译打包 l 首先,在官网下载源码包 http://atlas.apache.org/ l 上传到linux,解压 [root@h2 ~]# tar -zxf apache-atla ...

最新文章

  1. 北京工业大学计算机科学与技术研究生,北京工业大学研究生专业介绍:计算机科学与技术...
  2. Linq distinct去重方法之一
  3. 开机自启动脚本_使用xtu降低笔记本(游戏本)cpu电压及功耗·游戏本延时(以及试着解决开机自启动的问题)...
  4. textfield获取其中内容_冲压工艺流程,常见冲压缺陷及消除方法,46页内容全面介绍冲压...
  5. win 10安装MySQL
  6. “word另存为PDF时,参考文献的上标都变为正常文本“的解决办法
  7. libreelec投屏_我的NAS+HTPC折腾之旅 篇八:LibreELEC部署媒体中心服务器emby和jellyfin篇...
  8. vs使用中遇到的问题与插件
  9. 韩版马化腾:在大财阀围堵下仍白手起家的凤凰男,抢滩加密交易平台、公链赛道...
  10. Pwnable.kr collision [Writeup]
  11. 小众绿软|媒体:Soprano Audio Player v1.60
  12. 前端追梦人CSS教程
  13. BP神经网络对鸢尾花进行分类
  14. Synchronized原理(偏向锁篇)
  15. python tkinter 桌面小程序开发从入门到界面美化(主题应用推荐)
  16. 最新php版本下载地址
  17. Latex公式换行但不加序号
  18. 2017苹果全球开发者大会直播地址
  19. [离散数学]命题逻辑P_6:命题等价公式及应用
  20. hy-bridge:一款简洁安全可靠的Hybrid框架

热门文章

  1. python字符串设置字体_[4] Python字符串
  2. 灰色马尔科夫链matlab,基于灰色-马尔科夫模型的电力功率预测
  3. 作为一名java开发人员,不了解jvm调优对工作有什么影响?
  4. 第二十九章 OOTV杯超级模式大赛-模式总结(读书笔记)
  5. 在springboot整合mybatis遇到的数据库连接不上问题解决
  6. python virtualenv迁移,迁移virtualenv环境
  7. C/C++ 换行符、回车符与退格符
  8. 华科计算机硕士毕业论文,华科硕士论文格式
  9. 王子救公主(DFS)
  10. 华为通信算法岗(实习)-- 准备到入职全记录