使用sqoop从mysql 导入数据到hdfs

注意:

需要将mysql的jdbc驱动包放到lib目录下

在conf目录中,执行

cp sqoop-env-template.sh sqoop-env.sh

#修改 ~/.bashrc,增加

export HADOOP_CLASSPATH=/opt/hadoop-2.6.0-cdh5.13.0/lib:/$HIVE_HOME/lib/*

source ~/.bashrc

#执行:

#其中:employee_sql 是mysql中要同步的表。

#name,type是要同步的字段

#-m 没有主键时,需要指定为1.同步的有主键时,可以不写,这是个并行参数,可以提高效率。

# test_emp 是hive中的表。可以提前建,也可以后面建

./sqoop import --connect jdbc:mysql://localhost/test --username root -password 1234567 --table employee_sql --columns "name,type" --hive-import -m 1 --hive-table test_emp

#执行完毕后,只是把数据文件放到了hdfs文件系统上。目录是HIVE的默认目录。

#此时,在hive上新建一个表 test_tmp,便可查到导入的数据了。

附加数据:

mysql 中数据:

CREATE TABLE `employee_sql` (

`name` varchar(100) DEFAULT NULL,

`dept_num` int(11) DEFAULT NULL,

`employee_id` int(11) DEFAULT NULL,

`salary` int(11) DEFAULT NULL,

`type` varchar(100) DEFAULT NULL,

`start_date` date DEFAULT NULL

)

;

mysql> select * from employee_sql;

+---------+----------+-------------+--------+------+------------+

| name | dept_num | employee_id | salary | type | start_date |

+---------+----------+-------------+--------+------+------------+

| Michael | 1000 | 100 | 5000 | full | 2014-01-29 |

| Will | 1000 | 101 | 4000 | full | 2013-10-02 |

| Will | 1000 | 101 | 4000 | part | 2014-10-02 |

| Steven | 1000 | 102 | 6400 | part | 2012-11-03 |

| Lucy | 1000 | 103 | 5500 | full | 2010-01-03 |

| Lily | 1001 | 104 | 5000 | part | 2014-11-29 |

| Jess | 1001 | 105 | 6000 | part | 2014-12-02 |

| Mike | 1001 | 106 | 6400 | part | 2013-11-03 |

| Wei | 1002 | 107 | 7000 | part | 2010-04-03 |

| Yun | 1002 | 108 | 5500 | full | 2014-01-29 |

| Richard | 1002 | 109 | 8000 | full | 2013-09-01 |

+---------+----------+-------------+--------+------+------------+

11 rows in set (0.01 sec)

hadoop中的数据

hadoop@server01:~$ hdfs dfs -ls /user/hive/warehouse/test_emp

Found 1 items

-rwxr-xr-x 1 hadoop supergroup 116 2018-11-08 16:01 /user/hive/warehouse/test_emp/part-m-00000

hadoop@server01:~$ hdfs dfs -cat /user/hive/warehouse/test_emp/part-m-00000

Michaelfull

Willfull

Willpart

Stevenpart

Lucyfull

Lilypart

Jesspart

Mikepart

Weipart

Yunfull

Richardfull

#hive中查看数据表

0: jdbc:hive2://localhost:10000> select * from test_emp;

INFO : Compiling command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552): select * from test_emp

INFO : Semantic Analysis Completed

INFO : Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:test_emp.name, type:string, comment:null), FieldSchema(name:test_emp.type, type:string, comment:null)], properties:null)

INFO : Completed compiling command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552); Time taken: 0.098 seconds

INFO : Concurrency mode is disabled, not creating a lock manager

INFO : Executing command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552): select * from test_emp

INFO : Completed executing command(queryId=hadoop_20181108170505_ed2ee34d-2ee9-444b-b316-427a91e2e552); Time taken: 0.0 seconds

INFO : OK

+----------------+----------------+--+

| test_emp.name | test_emp.type |

+----------------+----------------+--+

| Michael | full |

| Will | full |

| Will | part |

| Steven | part |

| Lucy | full |

| Lily | part |

| Jess | part |

| Mike | part |

| Wei | part |

| Yun | full |

| Richard | full |

+----------------+----------------+--+

11 rows selected (0.158 seconds)

sqoop从mysql导入hdfs_3.使用sqoop从mysql 导入数据到hdfs相关推荐

  1. mysql数据与Hadoop之间导入导出之Sqoop实例

    前面介绍了sqoop1.4.6的 如何将mysql数据导入Hadoop之Sqoop安装,下面就介绍两者间的数据互通的简单使用命令. 显示mysql数据库的信息,一般sqoop安装测试用 sqoop l ...

  2. 如何将mysql数据导入Hadoop之Sqoop安装

    Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle , ...

  3. sqoop连接hive和mysql_用Sqoop进行Hive和MySQL之间的数据互导

    Hive导数据入MySQL 创建mysql表 use anticheat; create table anticheat_blacklist( userid varchar(30) primary k ...

  4. sqoop同步hdfs与mysql端口_使用Sqoop将数据在HDFS与MySQL互导

    1.去官网下载sqoop,直接百度即可 2.解压后进入conf目录 guo@drguo1:/opt/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/conf$ cp sqoop ...

  5. 使用sqoop从Oracle或mysql抽取数据到HDFS遇到的报错及解决

    一.参考文档: 1.https://www.rittmanmead.com/blog/2014/03/using-sqoop-for-loading-oracle-data-into-hadoop-o ...

  6. Sqoop 导入数据到hdfs和hive总结

    使用帮助 Sqoop help 查看所有的sqoop的帮助 Sqoop help import 查看import命令的帮助 Eg: sqoop导入到HDFS的一个简单示例: sqoop import ...

  7. Sqoop快速入门【导入数据到HDFS与导出数据到数据库】

    1.Sqoop概述 Sqoop - "SQL到Hadoop和Hadoop到SQL" sqoop是apache旗下一款"Hadoop和关系数据库服务器之间传送数据" ...

  8. sqoop从oracle导入hive分区,sqoop从oracle导入hive Hive exited with status 64

    导入命令 ./sqoop import -Dmapreduce.map.java.opts=-Xmx3000m -Dmapreduce.map.memory.mb=3200 --connect jdb ...

  9. 关于sqoop增量导入oracle的数据到HDFS的出现的错误总结

    今天在将公司的oracle的数据抽取到hive当中,根据时间字段做增量插入,然后合并采用按照id唯一主键的方式进行合并操作. 下面的代码是增量导入的操作shell脚本 #!/bin/bash date ...

最新文章

  1. python3 f-strings格式字符串
  2. BZOJ4671: 异或图
  3. Label Assign综述:提升目标检测上限
  4. FreeMarker整合Spring 3
  5. 浅谈:数据结构之单链表,java代码演示单链表
  6. 清除webkit浏览器css设置滚动条
  7. html如何设置文本斜体,CSS/HTML:使文本斜体的正确方法是什么?
  8. vue-axios interceptors
  9. 读书笔记:《时间投资法》之二
  10. SQL On Linux 初体验
  11. 《交互式程序设计 第2版》一2.2 代码的本质
  12. 讣告 | ACL终身成就奖得主Aravind Joshi去世
  13. How is NGINX Unit different from Apache?
  14. 手机问卷调查报告 html,使用手机问卷调查报告
  15. 【POJ 1838 --- Banana】
  16. 【python数据分析】分组聚合操作
  17. linux清理垃圾文件,linux如何清理系统垃圾
  18. libxml2 c库使用
  19. strlen()函数详解
  20. 单声道数据转双声道_单声道转双声道方法

热门文章

  1. 混合型面向对象语言和纯面向对象语言
  2. Django中--使用redis存储历史浏览记录
  3. 通信与计算机网络FSC,数据通信与计算机网络概述信道习题.pdf
  4. PostgreSQL 入门
  5. 大数据集群搭建之hadoop、tomcat、jdk等工具的安装(三)
  6. dhcp failover linux,ISC dhcp failover的mclt参数很重要啊
  7. 使用loadrunner编写webservice接口请求
  8. VS2017打开低版本的VS MVC架构的项目的时候需要修改的地方
  9. linux —— shell 编程(文本处理)
  10. DOM getElementById