sqoop从mysql导入hdfs_3.使用sqoop从mysql 导入数据到hdfs
使用sqoop从mysql 导入数据到hdfs
注意:
需要将mysql的jdbc驱动包放到lib目录下
在conf目录中,执行
cp sqoop-env-template.sh sqoop-env.sh
#修改 ~/.bashrc,增加
export HADOOP_CLASSPATH=/opt/hadoop-2.6.0-cdh5.13.0/lib:/$HIVE_HOME/lib/*
source ~/.bashrc
#执行:
#其中:employee_sql 是mysql中要同步的表。
#name,type是要同步的字段
#-m 没有主键时,需要指定为1.同步的有主键时,可以不写,这是个并行参数,可以提高效率。
# test_emp 是hive中的表。可以提前建,也可以后面建
./sqoop import --connect jdbc:mysql://localhost/test --username root -password 1234567 --table employee_sql --columns "name,type" --hive-import -m 1 --hive-table test_emp
#执行完毕后,只是把数据文件放到了hdfs文件系统上。目录是HIVE的默认目录。
#此时,在hive上新建一个表 test_tmp,便可查到导入的数据了。
附加数据:
mysql 中数据:
CREATE TABLE `employee_sql` (
`name` varchar(100) DEFAULT NULL,
`dept_num` int(11) DEFAULT NULL,
`employee_id` int(11) DEFAULT NULL,
`salary` int(11) DEFAULT NULL,
`type` varchar(100) DEFAULT NULL,
`start_date` date DEFAULT NULL
)
;
mysql> select * from employee_sql;
+---------+----------+-------------+--------+------+------------+
| name | dept_num | employee_id | salary | type | start_date |
+---------+----------+-------------+--------+------+------------+
| Michael | 1000 | 100 | 5000 | full | 2014-01-29 |
| Will | 1000 | 101 | 4000 | full | 2013-10-02 |
| Will | 1000 | 101 | 4000 | part | 2014-10-02 |
| Steven | 1000 | 102 | 6400 | part | 2012-11-03 |
| Lucy | 1000 | 103 | 5500 | full | 2010-01-03 |
| Lily | 1001 | 104 | 5000 | part | 2014-11-29 |
| Jess | 1001 | 105 | 6000 | part | 2014-12-02 |
| Mike | 1001 | 106 | 6400 | part | 2013-11-03 |
| Wei | 1002 | 107 | 7000 | part | 2010-04-03 |
| Yun | 1002 | 108 | 5500 | full | 2014-01-29 |
| Richard | 1002 | 109 | 8000 | full | 2013-09-01 |
+---------+----------+-------------+--------+------+------------+
11 rows in set (0.01 sec)
hadoop中的数据
hadoop@server01:~$ hdfs dfs -ls /user/hive/warehouse/test_emp
Found 1 items
-rwxr-xr-x 1 hadoop supergroup 116 2018-11-08 16:01 /user/hive/warehouse/test_emp/part-m-00000
hadoop@server01:~$ hdfs dfs -cat /user/hive/warehouse/test_emp/part-m-00000
Michaelfull
Willfull
Willpart
Stevenpart
Lucyfull
Lilypart
Jesspart
Mikepart
Weipart
Yunfull
Richardfull
#hive中查看数据表
0: jdbc:hive2://localhost:10000> select * from test_emp;
INFO : Compiling command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552): select * from test_emp
INFO : Semantic Analysis Completed
INFO : Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:test_emp.name, type:string, comment:null), FieldSchema(name:test_emp.type, type:string, comment:null)], properties:null)
INFO : Completed compiling command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552); Time taken: 0.098 seconds
INFO : Concurrency mode is disabled, not creating a lock manager
INFO : Executing command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552): select * from test_emp
INFO : Completed executing command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552); Time taken: 0.0 seconds
INFO : OK
+----------------+----------------+--+
| test_emp.name | test_emp.type |
+----------------+----------------+--+
| Michael | full |
| Will | full |
| Will | part |
| Steven | part |
| Lucy | full |
| Lily | part |
| Jess | part |
| Mike | part |
| Wei | part |
| Yun | full |
| Richard | full |
+----------------+----------------+--+
11 rows selected (0.158 seconds)
sqoop从mysql导入hdfs_3.使用sqoop从mysql 导入数据到hdfs相关推荐
- mysql数据与Hadoop之间导入导出之Sqoop实例
前面介绍了sqoop1.4.6的 如何将mysql数据导入Hadoop之Sqoop安装,下面就介绍两者间的数据互通的简单使用命令. 显示mysql数据库的信息,一般sqoop安装测试用 sqoop l ...
- 如何将mysql数据导入Hadoop之Sqoop安装
Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle , ...
- sqoop连接hive和mysql_用Sqoop进行Hive和MySQL之间的数据互导
Hive导数据入MySQL 创建mysql表 use anticheat; create table anticheat_blacklist( userid varchar(30) primary k ...
- sqoop同步hdfs与mysql端口_使用Sqoop将数据在HDFS与MySQL互导
1.去官网下载sqoop,直接百度即可 2.解压后进入conf目录 guo@drguo1:/opt/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/conf$ cp sqoop ...
- 使用sqoop从Oracle或mysql抽取数据到HDFS遇到的报错及解决
一.参考文档: 1.https://www.rittmanmead.com/blog/2014/03/using-sqoop-for-loading-oracle-data-into-hadoop-o ...
- Sqoop 导入数据到hdfs和hive总结
使用帮助 Sqoop help 查看所有的sqoop的帮助 Sqoop help import 查看import命令的帮助 Eg: sqoop导入到HDFS的一个简单示例: sqoop import ...
- Sqoop快速入门【导入数据到HDFS与导出数据到数据库】
1.Sqoop概述 Sqoop - "SQL到Hadoop和Hadoop到SQL" sqoop是apache旗下一款"Hadoop和关系数据库服务器之间传送数据" ...
- sqoop从oracle导入hive分区,sqoop从oracle导入hive Hive exited with status 64
导入命令 ./sqoop import -Dmapreduce.map.java.opts=-Xmx3000m -Dmapreduce.map.memory.mb=3200 --connect jdb ...
- 关于sqoop增量导入oracle的数据到HDFS的出现的错误总结
今天在将公司的oracle的数据抽取到hive当中,根据时间字段做增量插入,然后合并采用按照id唯一主键的方式进行合并操作. 下面的代码是增量导入的操作shell脚本 #!/bin/bash date ...
最新文章
- python3 f-strings格式字符串
- BZOJ4671: 异或图
- Label Assign综述:提升目标检测上限
- FreeMarker整合Spring 3
- 浅谈:数据结构之单链表,java代码演示单链表
- 清除webkit浏览器css设置滚动条
- html如何设置文本斜体,CSS/HTML:使文本斜体的正确方法是什么?
- vue-axios interceptors
- 读书笔记:《时间投资法》之二
- SQL On Linux 初体验
- 《交互式程序设计 第2版》一2.2 代码的本质
- 讣告 | ACL终身成就奖得主Aravind Joshi去世
- How is NGINX Unit different from Apache?
- 手机问卷调查报告 html,使用手机问卷调查报告
- 【POJ 1838 --- Banana】
- 【python数据分析】分组聚合操作
- linux清理垃圾文件,linux如何清理系统垃圾
- libxml2 c库使用
- strlen()函数详解
- 单声道数据转双声道_单声道转双声道方法