一、将数据从mysql导入 HDFS

sqoop import --connect jdbc:mysql://192.168.76.1:3306/workflow --username root --password a --table project

报错

tool.ImportTool: Encountered IOException running import job: java.io.IOException: No columns to generate for ClassWriter
分析:  jdbc驱动问题,注意: mysql版本及jdbc驱动版本

请使用  mysql-connector-java-5.1.46.jar,   将它复制到 sqoop/lib下.

日志分析

19/07/31 21:27:17 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `project` AS t LIMIT 1
19/07/31 21:27:17 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `project` AS t LIMIT 1
19/07/31 21:27:17 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /usr/local/hadoop275
Note: /tmp/sqoop-root/compile/904dde1997bf14585ed20790f49bf50f/project.java uses or overrides a deprecated API.
Note: Recompile with -Xlint:deprecation for details.
19/07/31 21:27:21 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-root/compile/904dde1997bf14585ed20790f49bf50f/project.jar
19/07/31 21:27:21 WARN manager.MySQLManager: It looks like you are importing from mysql.
19/07/31 21:27:21 WARN manager.MySQLManager: This transfer can be faster! Use the --direct
19/07/31 21:27:21 WARN manager.MySQLManager: option to exercise a MySQL-specific fast path.
19/07/31 21:27:21 INFO manager.MySQLManager: Setting zero DATETIME behavior to convertToNull (mysql)
19/07/31 21:27:21 INFO mapreduce.ImportJobBase: Beginning import of project
19/07/31 21:27:21 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar
19/07/31 21:27:22 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
19/07/31 21:27:22 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.76.144:18040
19/07/31 21:27:34 INFO db.DBInputFormat: Using read commited transaction isolation
19/07/31 21:27:34 INFO db.DataDrivenDBInputFormat: BoundingValsQuery: SELECT MIN(`id`), MAX(`id`) FROM `project`
19/07/31 21:27:34 INFO db.IntegerSplitter: Split size: 0; Num splits: 4 from: 1 to: 3
19/07/31 21:27:35 INFO mapreduce.JobSubmitter: number of splits:3
19/07/31 21:27:35 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1564545564450_0001
19/07/31 21:27:36 INFO impl.YarnClientImpl: Submitted application application_1564545564450_0001
19/07/31 21:27:36 INFO mapreduce.Job: The url to track the job: http://master:18088/proxy/application_1564545564450_0001/
19/07/31 21:27:36 INFO mapreduce.Job: Running job: job_1564545564450_0001
19/07/31 21:27:50 INFO mapreduce.Job: Job job_1564545564450_0001 running in uber mode : false
19/07/31 21:27:50 INFO mapreduce.Job:  map 0% reduce 0%
19/07/31 21:27:58 INFO mapreduce.Job:  map 33% reduce 0%
19/07/31 21:28:07 INFO mapreduce.Job:  map 67% reduce 0%
19/07/31 21:28:08 INFO mapreduce.Job:  map 100% reduce 0%
19/07/31 21:28:08 INFO mapreduce.Job: Job job_1564545564450_0001 completed successfully
19/07/31 21:28:08 INFO mapreduce.Job: Counters: 31File System CountersFILE: Number of bytes read=0FILE: Number of bytes written=418683FILE: Number of read operations=0FILE: Number of large read operations=0FILE: Number of write operations=0HDFS: Number of bytes read=295HDFS: Number of bytes written=180HDFS: Number of read operations=12HDFS: Number of large read operations=0HDFS: Number of write operations=6Job Counters Killed map tasks=1Launched map tasks=3Other local map tasks=3Total time spent by all maps in occupied slots (ms)=36242Total time spent by all reduces in occupied slots (ms)=0Total time spent by all map tasks (ms)=36242Total vcore-milliseconds taken by all map tasks=36242Total megabyte-milliseconds taken by all map tasks=37111808Map-Reduce FrameworkMap input records=3Map output records=3Input split bytes=295Spilled Records=0Failed Shuffles=0Merged Map outputs=0GC time elapsed (ms)=554CPU time spent (ms)=3130Physical memory (bytes) snapshot=329420800Virtual memory (bytes) snapshot=6247133184Total committed heap usage (bytes)=91422720File Input Format Counters Bytes Read=0File Output Format Counters Bytes Written=180
19/07/31 21:28:08 INFO mapreduce.ImportJobBase: Transferred 180 bytes in 46.5489 seconds (3.8669 bytes/sec)
19/07/31 21:28:08 INFO mapreduce.ImportJobBase: Retrieved 3 records.

测试以上导入是否成功:
       hadoop dfs -ls /user/root/project

       hadoop dfs -cat /user/root/project/part*

指定hdfs保存路径.   /test1   没有用表名作路径
       sqoop import --connect jdbc:mysql://192.168.76.1:3306/workflow --username root --password a --table project --target-dir /test1

只导入id , name列   /test2
       sqoop import --connect jdbc:mysql://192.168.76.1:3306/workflow --username root --password a --table project --target-dir /test2 --columns 'id,name'

增量导入    添加了数据: append
       sqoop import --connect jdbc:mysql://192.168.76.1:3306/workflow --username root --password a --table project --target-dir /test3

       sqoop import --connect jdbc:mysql://192.168.76.1:3306/workflow --username root --password a  --driver com.mysql.jdbc.Driver --target-dir /test3 --direct  --table project -m 3 --check-column id --incremental append --last-value 3

二、将MySQL数据库中的表数据导入到Hive中

Sqoop 导入关系型数据到 Hive 的过程是先导入到 hdfs,然后再 load 进入 Hive

sqoop 提供了直接将 mysql 数据导入 Hive 的功能,以下为直接导入

sqoop import --connect jdbc:mysql://192.168.76.1:3306/kuwomusic --username root --password a --table kuwo_music  --target-dir /user/test --hive-import --create-hive-table --where 'id<100'

执行成功

查看Hive中数据

Sqoop将MySQL数据导入到HDFS和Hive中相关推荐

  1. python etl工具 sqoop hive_python脚本 用sqoop把mysql数据导入hive

    转:https://blog.csdn.net/wulantian/article/details/53064123 用python把mysql数据库的数据导入到hive中,该过程主要是通过pytho ...

  2. sqoop把mysql数据导入hive

    环境: 软件 版本 备注 Ubuntu 19.10   sqoop 1.4.7   mysql 8.0.20-0ubuntu0.19.10.1 (Ubuntu)   hadoop 3.1.2   hi ...

  3. sqoop将mysql数据导入到hive指定的数据库中

    本文作者:合肥工业大学 管理学院 钱洋 email:1563178220@qq.com 欢迎交流,禁止将本人博客直接复制下来,上传到百度文库等平台. 我们在使用hive时,经常需要建立一些库,以防止总 ...

  4. Java将hive数据导入到hdfs_sqoop数据导入到Hdfs 或者hive

    准备一张表 需求 将 bbs_product 表中的前100条数据导 导出来  只要id  brand_id和 name 这3个字段 数据存在 hdfs 目录   /user/xuyou/sqoop/ ...

  5. sqoop mysql hadoop_使用sqoop将mysql数据导入到hadoop

    hadoop的安装配置这里就不讲了. Sqoop的安装也很简单. 完成sqoop的安装后,可以这样测试是否可以连接到mysql(注意:mysql的jar包要放到 SQOOP_HOME/lib 下): ...

  6. sqoop把mysql数据导入hbase-完整记录

    环境: 软件 版本 备注 Ubuntu 19.10   sqoop 1.4.7   mysql 8.0.20-0ubuntu0.19.10.1 (Ubuntu)   hbase 2.2.4 必须启动 ...

  7. MySQL通过接口导入hive_利用Sqoop将MySQL数据导入Hive中

    参考 http://www.cnblogs.com/iPeng0564/p/3215055.html http://www.tuicool.com/articles/j2yayyj http://bl ...

  8. mysql数据导入导出 CSV格式_MySQL中导入导出CSV格式数据

    原标题:MySQL中导入导出CSV格式数据 预备阅读:MySQL中的主键问题和赋权限问题 今天来讲一下在MySQL中导入和导出CSV格式数据的操作. CSV格式数据 逗号分隔值(Comma-Separ ...

  9. sqoop实现Mysql、Oracle与hdfs之间数据的互导

    通过Sqoop实现Mysql / Oracle 与HDFS / Hbase互导数据 SQOOP的描述 SQOOP是用于对数据进行导入导出的. (1)把MySQL.Oracle等数据库中的数据导入到HD ...

最新文章

  1. Lua coroutine vs Java wait/notify
  2. 视频编码中封装格式RMVB,AVI,264
  3. Android 系统(169)---Android 7.0 插卡后APN信息的加载流程
  4. Bootstrap手风琴菜单
  5. [android 游戏源码]-体育游戏-疯狂足球源码
  6. iconfont 在项目中使用阿里icon
  7. 我的k8s随笔:Kubernetes 1.17.0 部署讲解
  8. 如何通过PTTools显示正在种子的PT网站
  9. 【历史上的今天】2 月 17 日:谷歌收购 Blogger;英伟达创始人出生;微软发布 Windows 2000
  10. 如何在PDF上添加电子签名?签名技巧分享
  11. 什么是hardcode编码
  12. 号外!号外!豪车出租啦!
  13. 【华为OD机试真题 Java】统计射击比赛成绩
  14. 君子不和牛置气,混蛋让它混到底-- 骂 老板 6
  15. Context都没弄明白,还怎么做Android开发?
  16. untun 安装docker 随手记
  17. 【git系列】重命名文件后为何就是untracked状态了 以及 应该如何正规地修改文件呢
  18. Python求数组的自然间断点
  19. 带你入门学习Rxjava--上手教程
  20. 计算机专业课考研攻略,考研计算机专业课组成原理特点及复习攻略

热门文章

  1. fail2ban重启默认清除iptables 取消默认
  2. 大话成像之《图像质量测试测量与国际标准》课程
  3. dos黑框的一些命令
  4. ssm基于微信小程序的电影影评交流平台系统 uni-app
  5. gdpr隐私保护_微信公众平台已发布GDPR隐私保护条例的新措施
  6. 计算机教师结构化方式面试,市计算机:17名学生通过全国教师资格证结构化面试...
  7. kingcms常用标记
  8. wxPython控件大全
  9. 计算机网络ospf实验报告,计算机网络实验报告 12_OSPF实验.doc
  10. 2022年北京大数据技能大赛“隐私计算”赛道初赛完结!12强出炉