安装前环境准备

  • hadoop 3.1.0
  • hbase 2.3.4
  • hive 3.1.3
  • solr 7.7.3
  • zookeeper 3.5.7
  • kafka
  • 2.11-2.4.1
  • atlas 2.3.0

大数据组件准备

**提示:apache组件历史版本下载地址https://archive.apache.org/dist/组件名字**
**例如:hadoop:https://archive.apache.org/dist/hadoop**

都需要配置环境变量

  1. hadoop安装部署

    • 下载地址

      https://archive.apache.org/dist/hadoop
      
    • 配置
      1. 编辑 hadoop-env.sh,设置JAVA_HOME环境变量
      export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.312.b07-1.el7_9.x86_64/jre,

       2. 编辑hdfs-site.xml文件```<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>file:/opt/tool/hadoop-3.1.3/tmp/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/opt/tool/hadoop-3.1.3/tmp/dfs/data</value></property></configuration>```3. 编辑yarn-site.xml文件`<configuration>``<property>``<name>yarn.nodemanager.aux-services</name>``<value>mapreduce_shuffle</value>``</property>``</configuration>`
      
    • 启动
      cd sbin
      start-dfs.sh
      start-yarn.sh 或者 start-all.sh
  2. zookeeper安装部署
    • 下载地址
      https://archive.apache.org/dist/zookeeper
    • 配置
      1. zoo.example.cfg 改为 zoo.cfg
      2. 在zoo.cfg里配置:dataDir=/opt/tool/apache-zookeeper-3.5.7-bin/data
        logDir=/opt/tool/apache-zookeeper-3.5.7-bin/log
    • 启动
      zkServer.sh start
  3. kafka安装部署
  • 下载地址
    https://archive.apache.org/dist/kafka
  • 配置
    编辑server.properties
    1. listeners=PLAINTEXT://127.0.0.1:9092
    2. broker.id=1
    如果不是本机的zookeeper,还需要配置zookeeper.properties文件
  • 启动
    cd bin
    ./kafka-server-start.sh -daemon ../config/server.properties
  1. hbase安装部署

    • 下载地址
    • 配置
      1. hbase-env.sh文件最后追加 export HBASE_MANAGES_ZK=false // 不使用自己的zookeeper
      2. hbase-site.xml中添加
      <property>
      <name>hbase.cluster.distributed</name>
      <value>true</value>
      </property>
      <property>
      <name>hbase.wal.provider</name>
      <value>filesystem</value>
      </property>
    • 启动
      start-hbase.sh
  2. Solr安装部署
    • 下载地址

    • 配置
      1. 创建系统用户 solr
      sudo useradd solr //增加solr用户
      echo solr | sudo passwd --stdin solr //设置密码为solr
      2. 修改 solr 目录的所有者为 solr 用户
      sudo chown -R solr:solr /opt/module/solr

    • 启动
      注意:启动前需要先启动zookeeper
      sudo -i -u solr /opt/module/solr/bin/solr start
      出现 **Happy Searching! **字样表明启动成功。
      访问 web 页面,默认端口为 8983,http://localhost:8983

  3. hive安装部署
    • 下载地址
    • 配置
      1. hive-site.xml文件 配置mysql信息
      <configuration>
      <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
      </property>
      <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
      </property>
      <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
      </property>
      <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>root</value>
      </property>
      <property>
      <name>hive.exec.post.hooks</name>
      <value>org.apache.atlas.hive.hook.HiveHook</value>
      </property>
      </configuration>
      2. hive-env.sh文件
      export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.312.b07-1.el7_9.x86_64/jre
    • 启动
      schematool -dbType mysql -initSchema 初始化hive到mysql中
      hive --version 先检查hive版本(配置环境变量/etc/profile)
      hive --service metastore &

Atlas集成

1. 源码编译`mvn clean -DskipTests package -Pdist`2. **Apache Atlas集成HBase***             在atlas-application.properties中配置`atlas.graph.storage.backend=hbase2``atlas.graph.storage.hbase.table=apache_atlas_janus* ``atlas.graph.storage.hostname=localhost:2181`  这里是zookeeper的地址`atlas.graph.storage.hbase.regions-per-server=1``atlas.graph.storage.lock.wait-time=10000`*             拷贝hbase的配置文件hbase-site.xml到atlas的conf/hbase*             修改atlas的环境变量配置信息,添加hbase的配置文件目录 `vi atlas-env.sh``export HBASE_CONF_DIR=指向上面一步的路径,hbase-site.xml的路径`
3. **Apache Atlas集成Solr***             默认是配置solr cloud,由于实验是单机环境部署,改为http模式:`atlas.graph.index.search.backend=solr``atlas.graph.index.search.solr.mode=http``atlas.graph.index.search.solr.http-urls=http://localhost:8983/solr`*            将Apache Atlas自带的Solr文件夹拷贝到外部Solr相应目录下,并重命名为atlas_conf`cp -rf solr 目标路径``全目标路径solr create -c vertex_index -d /atlas_conf `*             Solr页面验证
4. **Apache Atlas集成Kafka***           修改Notification Configs`atlas.notification.embedded=false`  使用内置的kafka,默认true,指定false`atlas.kafka.data=/Users/shaozhipeng/Development/pseudo/kafka/kafka-logs``atlas.kafka.zookeeper.connect=localhost:2181` zookeeper的地址`atlas.kafka.bootstrap.servers=localhost:9092` kafka地址`atlas.kafka.zookeeper.session.timeout.ms=4000`5.   **Apache Atlas Server其它配置***          修改Server Properties`atlas.rest.address=http://localhost:21000``atlas.server.run.setup.on.start=false``atlas.audit.hbase.tablename=apache_atlas_entity_audit``atlas.audit.zookeeper.session.timeout.ms=1000``atlas.audit.hbase.zookeeper.quorum=localhost:2181`*          修改atlas-log4j.xml,去掉注释`<appender name="perf_appender" class="org.apache.log4j.DailyRollingFileAppender">``<logger name="org.apache.atlas.perf" additivity="false">`在文件中搜索这两处 解开注释
6. **Apache Atlas 集成 Hive**其主要工作是同步各服务(主要是 Hive)的元数据,并构建元 数据实体之间的关联关系,然后对所存储的元数据建立索引,最终未用户提供数据血缘查看及元数据检索等功能。

​ Atlas 在安装之初,需手动执行一次元数据的全量导入,后续 Atlas 便会利用 Hive Hook 增量同步 Hive 的元数据。
hook-bin/import-hive.sh 这个文件在::distro/target/apache-atlas-2.0.0-hive-hook::
按提示输入用户名:admin;输入密码:admin
Enter username for atlas :- admin
Enter password for atlas :- admin
等待片刻,出现以下日志,即表明导入成功:
::Hive Meta Data import was successful!!!::

      atlas的配置文件atlas-application.properties`######### Hive Hook Configs #######``atlas.hook.hive.synchronous=false``atlas.hook.hive.numRetries=3``atlas.hook.hive.queueSize=10000``atlas.cluster.name=primary`修改hive的配置文件,hive的目录,不是atlas的`<property><name>hive.exec.post.hooks</name><value>org.apache.atlas.hive.hook.HiveHook</value></property>`
7.  **启动Atlas服务**`atlas_start.py` 启动服务`atlas_stop.py` 停止服务看到 `Apache Atlas Server started!!!` 即为启动成功,访问web 21000端口进入管理页面 (可能会有延迟)用户名密码:admin/admin**注意: 有的时候启动成功了也进不去web页面,请排查每个服务的日志报错**

Apache Atlas 2.3.0 安装部署相关推荐

  1. Apache Atlas 1.2.0 安装部署

    组件版本: Hive 1.1.0 CDH 5.15.0 Atlas 1.2.0 Centos 8 Maven 3.6.3 文章目录 Java 环境安装 Atlas编译安装 下载源码包 解压编译 Atl ...

  2. 记一次 基于Hadoop 3.3.0 安装部署 Spark 3.0.0 分布式集群

    一.基本信息 官网 http://spark.apache.org/ Apache Spark 官方文档中文版(Spark 2.2.0) http://spark.apachecn.org/#/ Sp ...

  3. MySQL 8.0 安装部署3个注意事项

    墨墨导读:本文分享实际案例中MySQL8.0安装部署时最典型的3个问题,希望对大家有帮助. MySQL 8.0 2016年首次发布,2018年GA版本发布也已经4年多的历程,最新版本已经到8.0.21 ...

  4. VMware-vRealize-Log-Insight-8.2.0.0安装部署指南

    VMware-vRealize-Log-Insight-8.2.0.0安装部署指南 https://blog.csdn.net/u011775882/article/details/110928142 ...

  5. linux上搭载was应用上传中文文件,受支持的Linux操作系统和WAS ND 9.0安装部署文档的资料说明...

    本文档的主要内容详细介绍的是受支持的Linux操作系统和WAS ND 9.0安装部署文档的资料说明. 从was9.0开始支持的最低版本的red hat Linux系统为6.6且仅支持64位操作系统 计 ...

  6. CentOS 8下 MySQL 8.0 安装部署(亲测)

    MySQL 8正式版8.0.11已发布,官方表示MySQL8要比MySQL 5.7快2倍,还带来了大量的改进和更快的性能!到底谁最牛呢?请看:MySQL 5.7 vs 8.0,哪个性能更牛? 下载地址 ...

  7. apache atlas 2.1.0的安装

    1.Atlas 架构原理 2.atlas安装 1)Atlas 官网地址:https://atlas.apache.org/ 2)文档查看地址:https://atlas.apache.org/2.1. ...

  8. Apache HAWQ集群的安装部署

    最近Pivotal公司发布了Apache HAWQ的企业版HDB 2.0,因功能强大,性能出色,很多人已经迫不及待想要安装来玩玩了.今天我们就来聊聊怎么部署强大的HAWQ 2.0吧. 企业版的HAWQ ...

  9. Phoenix5.0 安装部署

    文章目录 概述 Phoenix5.0 shell 安装 Phoenix5.0 shell 使用 增删改查 phoenix shell下创建view映射hbase表 退出Phoenix psql.py ...

最新文章

  1. 常见的HTML元素及常见检查点
  2. linux epoll监听套接字实例
  3. vue进行判断使用class_vue如何判断dom的class
  4. JAVA是如何传递参数的?是传值(by value)?还是传地址(by reference)?
  5. JVM实战与原理---类加载机制
  6. php中des加密cbc模式,php中加密解密DES类的简单使用方法示例
  7. 【linux】kill命令信号总结
  8. java截取字符串函数
  9. snmp是什么层协议_率先拥抱TSN——CC-Link发布新一代网络协议CC-Link IE TSN
  10. lua32位和64位字符串和Uint之间的转换
  11. bi项目中数据仓库的维度表和事实表
  12. 个人设计web前端大作业 基于html5制作美食菜谱网页设计作业代码
  13. ICMAX解析运行内存发展新趋势 LPDDR4X将会给手机带来哪些改变?
  14. 计算机管理员账户停用,win10系统提示“你的账户已被停用,请向系统管理员咨询”如何解决...
  15. 2G,3G,4G基站区分
  16. 浏览器主页被搜狗篡改
  17. Together APP 社交APP
  18. Swagger如何屏蔽某些接口显示
  19. NetSpot Pro for Mac(最好用的wifi检测软件)
  20. 【Java】java格式化时间到毫秒

热门文章

  1. 影响NTC热敏电阻测量的三大因素-凯利讯半导体
  2. 中本聪系数会如何影响区块链的健壮性?
  3. 扒一扒中本聪的账户,创世区块隐藏了什么秘密?
  4. 菜鸟的Unity自学日志8 添加第一个敌人—石像鬼
  5. 报错:Cannot determine value type from string ‘xxxxxx‘
  6. 【2022.12.12更新】青龙面板 + MaiARK短信登录+ 新版傻妞+傻妞订阅+依赖 + 拉库 + 推送教程整合(附依赖库修复方案)
  7. element UI-表格数据转换/格式化
  8. 普源DS1000Z-E 系列数字示波器技术参数
  9. 我们测了30款移动硬盘,却如此尴尬
  10. 进销存软件:仓库动态盘货功能