环境:

软件 版本 备注
Ubuntu 19.10  
sqoop 1.4.7  
mysql 8.0.20-0ubuntu0.19.10.1 (Ubuntu)  
hadoop 3.1.2  
hive 3.0.0 之所以和hive有关系是因为需要在.bashrc中设置HCAT_HOME
accumulo 2.0.0 需要配合sqoop在.bashrc中设置ACCUMULO_HOMT

准备工作:

①lsof -i:10000确保端口存在占用

②metastore确保打开

③hiveserver2确保打开

数据导入目标:

mysql中的sqoop_hbase中的表格book导入Hive

数据集建立以[1]为准

显示所有数据库:

sqoop list-databases --connect jdbc:mysql://Desktop:3306/ --username appleyuchi --password appleyuchi

显示数据库中所有表格:

sqoop list-tables --connect jdbc:mysql://Desktop:3306/sqoop_hbase --username appleyuchi --password appleyuchi

开始传递数据:

sqoop import --connect jdbc:mysql://Desktop:3306/sqoop_hbase --username appleyuchi --password appleyuchi --table book --hive-import --create-hive-table  --fields-terminated-by "\t" -m 5

log:

/home/appleyuchi/bigdata/hadoop-3.1.2/libexec/hadoop-functions.sh: 列 2358: HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_USER:無效的變數名稱
/home/appleyuchi/bigdata/hadoop-3.1.2/libexec/hadoop-functions.sh: 列 2453: HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_OPTS:無效的變數名稱
/home/appleyuchi/bigdata/hadoop-3.1.2/libexec/hadoop-functions.sh: 列 2358: HADOOP_ORG.APACHE.SQOOP.SQOOP_USER:無效的變數名稱
/home/appleyuchi/bigdata/hadoop-3.1.2/libexec/hadoop-functions.sh: 列 2453: HADOOP_ORG.APACHE.SQOOP.SQOOP_OPTS:無效的變數名稱
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/appleyuchi/bigdata/hadoop-3.1.2/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/appleyuchi/bigdata/apache-hive-3.0.0-bin/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/appleyuchi/bigdata/hbase-2.2.4/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
2020-05-28 13:22:47,594 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.
Loading class `com.mysql.jdbc.Driver'. This is deprecated. The new driver class is `com.mysql.cj.jdbc.Driver'. The driver is automatically registered via the SPI and manual loading of the driver class is generally unnecessary.
Note: /tmp/sqoop-appleyuchi/compile/af856630222c463eee34cb9210be25ff/book.java uses or overrides a deprecated API.
Note: Recompile with -Xlint:deprecation for details.
2020-05-28 13:22:50,084 WARN manager.MySQLManager: It looks like you are importing from mysql.
2020-05-28 13:22:50,084 WARN manager.MySQLManager: This transfer can be faster! Use the --direct
2020-05-28 13:22:50,084 WARN manager.MySQLManager: option to exercise a MySQL-specific fast path.
Hive Session ID = 5b44d7c9-8718-4936-996e-5eb4d9f3878aLogging initialized using configuration in jar:file:/home/appleyuchi/bigdata/apache-hive-3.0.0-bin/lib/hive-common-3.0.0.jar!/hive-log4j2.properties Async: true
2020-05-28 13:23:26,576 WARN session.SessionState: METASTORE_FILTER_HOOK will be ignored, since hive.security.authorization.manager is set to instance of HiveAuthorizerFactory.
OK
Time taken: 4.613 seconds
Loading data to table default.book
OK
Time taken: 1.131 seconds

beeline中查看实验结果:

0: jdbc:hive2://Desktop:10000> show tables;
INFO  : Compiling command(queryId=appleyuchi_20200528133356_e09b4c8f-4d75-4c86-810f-a2ca8cb68921): show tables
INFO  : Concurrency mode is disabled, not creating a lock manager
INFO  : Semantic Analysis Completed
INFO  : Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:tab_name, type:string, comment:from deserializer)], properties:null)
INFO  : Completed compiling command(queryId=appleyuchi_20200528133356_e09b4c8f-4d75-4c86-810f-a2ca8cb68921); Time taken: 0.123 seconds
INFO  : Concurrency mode is disabled, not creating a lock manager
INFO  : Executing command(queryId=appleyuchi_20200528133356_e09b4c8f-4d75-4c86-810f-a2ca8cb68921): show tables
INFO  : Starting task [Stage-0:DDL] in serial mode
INFO  : Completed executing command(queryId=appleyuchi_20200528133356_e09b4c8f-4d75-4c86-810f-a2ca8cb68921); Time taken: 0.028 seconds
INFO  : OK
INFO  : Concurrency mode is disabled, not creating a lock manager
+-----------+
| tab_name  |
+-----------+
| book      |
| train     |
+-----------+
2 rows selected (0.339 seconds)

#--------------------------------------------------------------------------------------------------------------------------------------------------------

main ERROR Could not register mbeans java.security.AccessControlException: access denied ("javax.management.MBeanTrustPermission" "register")

解决办法:

$JAVA_HOME/jre/lib/security/java.policy加入:

grant{

permission javax.management.MBeanTrustPermission "register";

}

References:

[1]sqoop把mysql数据导入hbase-完整记录

sqoop把mysql数据导入hive相关推荐

  1. python etl工具 sqoop hive_python脚本 用sqoop把mysql数据导入hive

    转:https://blog.csdn.net/wulantian/article/details/53064123 用python把mysql数据库的数据导入到hive中,该过程主要是通过pytho ...

  2. MySQL通过接口导入hive_利用Sqoop将MySQL数据导入Hive中

    参考 http://www.cnblogs.com/iPeng0564/p/3215055.html http://www.tuicool.com/articles/j2yayyj http://bl ...

  3. Sqoop将MySQL数据导入到HDFS和Hive中

    一.将数据从mysql导入 HDFS sqoop import --connect jdbc:mysql://192.168.76.1:3306/workflow --username root -- ...

  4. sqoop将mysql数据导入到hive指定的数据库中

    本文作者:合肥工业大学 管理学院 钱洋 email:1563178220@qq.com 欢迎交流,禁止将本人博客直接复制下来,上传到百度文库等平台. 我们在使用hive时,经常需要建立一些库,以防止总 ...

  5. 使用 Sqoop 将 30W+ MySQL 数据导入 Hive

    本实验完成的是,使用 Sqoop 从 MySQL 导出数据到 Hive. 整体步骤分为: 初始化 MySQL 的 30W+ 数据 安装配置 Sqoop 在 Hive 中初始化目标表 Sqoop 脚本实 ...

  6. sqoop mysql hadoop_使用sqoop将mysql数据导入到hadoop

    hadoop的安装配置这里就不讲了. Sqoop的安装也很简单. 完成sqoop的安装后,可以这样测试是否可以连接到mysql(注意:mysql的jar包要放到 SQOOP_HOME/lib 下): ...

  7. sqoop把mysql数据导入hbase-完整记录

    环境: 软件 版本 备注 Ubuntu 19.10   sqoop 1.4.7   mysql 8.0.20-0ubuntu0.19.10.1 (Ubuntu)   hbase 2.2.4 必须启动 ...

  8. 使用shell脚本将mysql数据导入HIve中

    使用sqoop将us_order表中的数据导入到hive中,hive的库名为exam_ods,表名叫ods_us_order,根据order_date的日期来实现分区导入数据,形成脚本. 解释 #!/ ...

  9. 使用sqoop迁移mysql数据到hive

    相关参考文献: 1.原文地址:http://www.cnblogs.com/charlist/p/7122198.html 使用Sqoop能够极大简化MySQL数据迁移至Hive之流程,并降低Hado ...

最新文章

  1. libgdx游戏引擎开发笔记(一)引擎介绍和Helloworld
  2. UA SIE545 优化理论基础4 对偶理论简介4 求解对偶问题的割平面算法
  3. JavaScript----BOM(浏览器对象模型)
  4. 【转】程序在内存中的分布
  5. O/R Mapping再乱弹
  6. 《HTML5+CSS3网页设计入门必读》——第1章 标记简史1.1 从IETF到W3C:HTML 4的诞生过程...
  7. java se 1335,1335.逼退法王
  8. CVPR 2019 | 文本检测算法PSENet解读与开源实现
  9. 学习是第一生产力——学习型组织众书读后感
  10. Python基于迁移学习的交通信号识别实战【图像多分类任务】【实测准确度超过96.7%】
  11. bzoj 2957 楼房重建 分块
  12. 简单操作去除PDF文件
  13. lpush和rpush的区别_redis数据类型之list-lpush,rpush讲解
  14. npm install没有node_文件,并且package.json文件缺失
  15. 初级会计实务--第二章第五节、固定资产
  16. matlab蒙特卡洛求体积
  17. 计算机代码英语,计算机专业英语 (四)(示例代码)
  18. python同花顺 财务_使用Python抓取同花顺资金流数据
  19. 区块链酒水链投资骗局
  20. 毕业设计计算机文献翻译,(完整版)计算机类_毕业设计英文文献及翻译_

热门文章

  1. 结对-贪吃蛇游戏-开发过程
  2. 推公式hdu2298
  3. linux —— 学习笔记(用户管理与权限控制)
  4. Eclipse不给提示no default proposals
  5. Elasticsearch DSL中Query与Filter的不同
  6. 一道面试题,我自己的解法
  7. (五)JS基础知识二(通过图理解原型和原型链)【三座大山之一,必考!!!】
  8. mysql中的类型与java_mysql与java数据类型对应关系
  9. 模拟3个人排除买票,每人买1张票。售货员只有1张五元的钱,电影票5元一张
  10. 通过 39 个 问答方式快速了解学习 Git