1 软件安装清单

  • 安装Hadoop
  • 安装MySQL
  • 安装Hive
  • 安装Sqoop
  • 安装Eclipse
  • 安装ECharts

2 hadoop安装

hadoop在centos的伪分布式安装

3 MySql安装

下载并安装MySQL官方的Yum Repository\
wget -i -c http://dev.mysql.com/get/mysql57-community-release-el7-10.noarch.rpm
使用上面的命令直接安装Yum Repository
yum -y install mysql57-community-release-el7-10.noarch.rpm
安装MySQL服务器
yum -y install mysql-community-server
启动MySQL
systemctl start  mysqld.service
查看MySQL运行状态
systemctl status mysqld.service
关闭Mysql
systemctl stop mysqld.service

4 Hive的安装

Hive下载地址:http://mirror.bit.edu.cn/apache/hive/hive-2.3.4/

    sudo tar -zxvf ./apache-hive-2..4-bin.tar.gz -C /usr/local   # 解压到/usr/local中cd /usr/local/sudo mv apache-hive-2.3.4-bin hive       # 将文件夹名改为hivesudo chown -R hadoop hive            # 修改文件权限  hadoop为当前用户名
vim ~/.bashrc 添加如示内容
添加后
source ~/.bashrc


修改/usr/local/hive/conf下的hive-site.xml;
vim hive-site.xml;

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value><description>JDBC connect string for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.cj.jdbc.Driver</value><description>Driver class name for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionUserName</name><value>hivedb</value>    //一定要和你在mysql创建的用户名相同<description>username to use against metastore database</description></property><property><name>javax.jdo.option.ConnectionPassword</name><value>hivedb</value>一定要和你在mysql创建的用户名密码相同<description>password to use against metastore database</description></property>
</configuration>
4.1 安装mysql
sudo yum install mysql-community-server  //一句话解决
systemctl start mysqld //启动mysql
systemctl status mysqld //查看启动信息
grep "temporary password" /var/log/mysqld.log //查看初始密码
使用初始密码登入后,修改密码
SET PASSWORD=PASSWORD(“新密码”);
set global validate_password_policy=LOW;  //设置安全策略

注意!不要按厦大的数据库网站来做,hive这里的设置还需要以下步骤:
首先设置密码安全策略,否则你为新用户设置密码是会出错:
set global validate_password_policy=0;
set global validate_password_length=1;
接着创建用户:
create user ‘hivedb’ identified by ‘hivedb’;这里的用户名和密码和hvie-site一定要对应起来;
grant all on . to hive@localhost identified by ‘hivedb’;#将所有数据库的所有表的所有权限赋
flush privileges; #刷新mysql系统权限关系表
退出来,进行hive元数据初始化
schematool -dbType mysql -initSchema
如果初始化失败,进入mysql把hive数据库删掉
下载mysql jdbc:https://dev.mysql.com/downloads/file/?id=480291;

tar -zxvf mysql-connector-java-8.0.13.tar.gz
cp mysql-connector-java-8.0.13/mysql-connector-java-8.0.13.jar /usr/local/hive/lib
start-all.sh #启动hadoop
hive  #启动hive

5: sqoop安装

sqoop下载:http://mirror.bit.edu.cn/apache/sqoop/1.4.7/
下载完成后在下载目录中打开shell;

sudo tar -zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local
cd /usr/local
sudo mv sqoop-1.4.7.bin__hadoop-2.6.0 sqoop
sudo chown -R hadoop sqoop   //hadoop 为当前用户名
cd sqoop/conf/
cp sqoop-env-template.sh sqoop-env.sh
vim sqoop-env.sh
添加下面图片的内容,这些路径都是前几步软件安装的目录

vim ~/.bashrc
添加以下图片内容

source ~/.bashrc 使修改生效
将4.1节的MySQL驱动程序拷贝到$SQOOP_HOME/lib目录下
cp ~/下载/mysql-connector-java-8.0.13/mysql-connector-java-8.0.13.jar /usr/local/sqoop/lib
启动mysql
systemctl start mysqld //启动mysql
sqoop list-databases --connect jdbc:mysql://127.0.0.1:3306/ --username root -P //然后就可以测试sqoop与MySQL之间的连接是否成功:

6: eclipse在Linux上的安装

eclipse在centos的安装

7: spark安装

spark下载地址:http://spark.apache.org/downloads.html

sudo tar -zxf ~/下载/spark-1.6.2-bin-without-hadoop.tgz -C /usr/local/
cd /usr/local
sudo mv ./spark-1.6.2-bin-without-hadoop/ ./spark
sudo chown -R hadoop:hadoop ./spark
cd /usr/local/spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
编辑spark-env.sh文件(vim ./conf/spark-env.sh),在第一行添加以下配置信息:
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

安装过程比较繁琐,很简单但需要耐心。

淘宝双11数据分析与预测课程案例:实验环境搭配相关推荐

  1. 淘宝双11数据分析与预测课程案例—步骤四:利用Spark预测回头客行为代码报错

    在练习林子雨老师的"淘宝双11数据分析与预测课程案例-步骤四:利用Spark预测回头客行为"章节时出现了代码报错. 具体在执行"val model = SVMWithSG ...

  2. 淘宝双11数据分析与预测

    淘宝双11数据分析与预测 一. 案例简介 Spark课程实验案例:淘宝双11数据分析与预测课程案例,由厦门大学数据库实验室团队开发,旨在满足全国高校大数据教学对实验案例的迫切需求.本案例涉及数据预处理 ...

  3. 大数据-11-案例演习-淘宝双11数据分析与预测

    主要摘自 http://dblab.xmu.edu.cn/post/8116/ 案例简介 Spark课程实验案例:淘宝双11数据分析与预测课程案例,由厦门大学数据库实验室团队开发,旨在满足全国高校大数 ...

  4. Spark大数据-基于Hive和Spark的淘宝双11数据分析与预测

    基于Hive和Spark的淘宝双11数据分析与预测 1.系统和环境要求(版本仅供参考): Linux: centos7 MySQL: 5.7.16 Hadoop: 2.7.1 Hive: 1.2.1 ...

  5. 淘宝双11数据分析与预测汇总

    国庆假期留在学校做了一下林子雨博士的大数据实验--淘宝双11数据分析与预测,虽然教程写得很详细,但自己还是踩了很多坑,现在记录下来,希望给别人一点帮助. 淘宝双11数据分析与预测实验链接:http:/ ...

  6. Cloud Computing(8)_实例实现_淘宝双11数据分析与预测

    在本文中,主要实现了一个云计算相关实例:淘宝双11数据分析与预测 数据来源为: http://dblab.xmu.edu.cn/ 由于本文内容为课上本人和同学所做的一次presentation,故将仅 ...

  7. 淘宝双11数据分析与预测--“坑点”汇总

    国庆假期留在学校做了一下林子雨博士的大数据实验--淘宝双11数据分析与预测,虽然教程写得很详细,但自己还是踩了很多坑,现在记录下来,希望给别人一点帮助. 淘宝双11数据分析与预测实验连接:点击这里 问 ...

  8. 【大数据基础】淘宝双11数据分析与预测

    https://dblab.xmu.edu.cn/post/8116/ 问题 问题1 mysql登录需要密码 https://cloud.tencent.com/developer/beta/arti ...

  9. 淘宝双11大数据分析(数据准备篇)

    文章目录 前言 数据内容分析 `user_log.csv`文件内容含义 `train.csv` 和 `test.csv` 文件内容含义 数据上传到Linux系统并解压 数据集的预处理 文件信息截取 导 ...

最新文章

  1. 卡夫卡(kafka)
  2. 怎样去判断一个网站是不是伪静态网站
  3. clr enabled Server Configuration Option
  4. 51nod1270(dp)
  5. 如何在 5 分钟内读懂区块链的架构思维?
  6. 没有bug队——加贝——Python 练习实例 29,30
  7. 函数头文件php_PHP 7.4 的 FFI 将支持更好地在 PHP 中使用 C 函数/数据结构
  8. linux动态库路径生效,Linux下如何解决动态库的链接问题
  9. 教你一行代码解决 Git报错 fatal refusing to merge unrelated histories
  10. 小夜曲dsd使用foobar2000测试dsd输出
  11. HTML实现在线取色器
  12. sharepoint 2010如何下载文件
  13. Linux正则表达式详解
  14. finalcut剪切快捷键_【FCPX】Final Cut Pro X 常用快捷键大全
  15. pandas的自带数据集_Pandas教程:初学者入门必备,很全面,很详细!
  16. 秀和vs太田雄藏(依田纪基讲定式,欺骗感情)
  17. 分水岭matlab仿真,正确使用Matlab分水岭算法对细胞进行分割
  18. windows server 2008r2 更新失败解决方案
  19. 区块链概念、原理、特点
  20. 如何在vs code中配置miniconda/anaconda环境(两种方法)

热门文章

  1. 选择短视频营销外包公司的优势有哪些?
  2. ps风景照片后期处理_如何拍摄风景优美的照片
  3. NFT交易系统(数字藏品)
  4. 激光投影虚拟键盘的设计与实现
  5. 使用mockjs生成随机手机号码
  6. 乌洛波洛斯衔尾蛇的反思
  7. 屡获殊荣的桌面日历BusyCal for mac
  8. 基于unet神经网络上采样中的的三种方式的理解
  9. 为什么计算机无法访问u盘,小编告诉大家为什么u盘连接电脑无法识别
  10. 教大家把同事做成暴走表情包