mysql里的表格式:

desc track_log18;CREATE TABLE `track_log18` (

`id` varchar(1000) DEFAULT NULL,

`url` varchar(5000) DEFAULT NULL,

`referer` varchar(5000) DEFAULT NULL,

`keyword` varchar(5000) DEFAULT NULL,

`type` varchar(1000) DEFAULT NULL,

`guid` varchar(1000) DEFAULT NULL,

`pageId` varchar(1000) DEFAULT NULL,

`moduleId` varchar(1000) DEFAULT NULL,

`linkId` varchar(1000) DEFAULT NULL,

`attachedInfo` varchar(1000) DEFAULT NULL,

`sessionId` varchar(1000) DEFAULT NULL,

`trackerU` varchar(1000) DEFAULT NULL,

`trackerType` varchar(1000) DEFAULT NULL,

`ip` varchar(1000) DEFAULT NULL,

`trackerSrc` varchar(1000) DEFAULT NULL,

`cookie` varchar(5000) DEFAULT NULL,

`orderCode` varchar(1000) DEFAULT NULL,

`trackTime` varchar(1000) DEFAULT NULL,

`endUserId` varchar(1000) DEFAULT NULL,

`firstLink` varchar(1000) DEFAULT NULL,

`sessionViewNo` varchar(5000) DEFAULT NULL,

`productId` varchar(1000) DEFAULT NULL,

`curMerchantId` varchar(1000) DEFAULT NULL,

`provinceId` varchar(1000) DEFAULT NULL,

`cityId` varchar(1000) DEFAULT NULL,

`ds` varchar(20) DEFAULT NULL,                           //ds 在hive表里是分区字段

`hour` varchar(20) DEFAULT NULL

) ENGINE=InnoDB DEFAULT CHARSET=latin1;  //hour在hive表里是分区字段

1 直接导入到hdfs的文件系统

表格式如下:

desc track_log;

id                      string

url                     string

。。。

cityid                  string

ds                      string

hour                    string

# Partition Information

# col_name              data_type               comment

ds                      string

hour                    string

jimmy>sqoop import --connect  jdbc:mysql://localhost:3306/track_log --username root --password Nokia123

--table track_log18   //mysql的源表

--target-dir /user/hive/warehouse/track_log/ds=20150827/hour=18    //直接到hdfs,

--split-by id      //根据id分段生成多个文件

结果自动生成多个文件:

-rw-r--r--   1 jimmy supergroup          0 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/_SUCCESS

-rw-r--r--   1 jimmy supergroup          0 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00000

-rw-r--r--   1 jimmy supergroup   13711664 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00001

-rw-r--r--   1 jimmy supergroup    2712180 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00002

-rw-r--r--   1 jimmy supergroup    2655849 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00003

-rw-r--r--   1 jimmy supergroup    2576800 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00004

-rw-r--r--   1 jimmy supergroup    1391853 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00005

注意:

A)导入后还要在hive里指定分区地址:

hive》alter table track_log add partition(ds='20150828' ,hour='17') location '/user/hive/warehouse/track_log/ds=20150827/hour=18';

B)hive查询时候有问题 ,比如select  id from track_log时候返回多列

2.导入到hive表里

这里表track_log19从track_log拷贝而来,就没有分区了

hive>create table track_log19 as select * from track_log;

表格式如下:

desc track_log19;

OK

id                      string

...

ds                      string                     //ds仍然是字段,但不是分区

hour                    string                    //hour仍然是字段,但不是分区

jimmy>sqoop import --connect  jdbc:mysql://localhost:3306/track_log --username root --password Nokia123  -                                                                                         -table track_log19         //源表

--hive-import

--hive-table track_log19  //目的表

--hive-overwrite

-m 1  //(最后生成一个文件)

结果(直接到warehouse下目录生成文件track_log19)

drwxrwxrwx   - jimmy supergroup          0 2016-12-18 15:17 /user/hive/warehouse/track_log drwxrwxrwx   - jimmy supergroup          0 2016-12-18 15:35 /user/hive/warehouse/track_log19

scoope导入数据_scoop导入数据从mysql到hive相关推荐

  1. 数据同步Sqoop用法之mysql与Hive导入导出

    目录 一. Sqoop介绍 二. Mysql 数据导入到 Hive 三. Hive数据导入到Mysql 四. mysql数据增量导入hive 1). 新建一张表 2). 初始化hive表: 1). 创 ...

  2. 数据工具sqoop用法之mysql与hive数据导入导出

    一.pom org.apache.hive hive-jdbc 1.1.0 org.apache.hadoop hadoop-common 2.6.0 org.mybatis mybatis 3.4. ...

  3. MySQL基础day03_数据的导入、导出-MySQL 5.6

    MySQL基础day03_数据的导入.导出-MySQL 5.6 注:把数据按照一定格式存放到文件里才能进行数据的导入. 1,数据导入的条件 把文件里的内容保存到数据的表里: 把数据按照一定格式存放文件 ...

  4. MySQL数据库导入或者同步大量数据时数据丢失解决方案

    MySQL数据库导入或者同步大量数据时数据丢失解决方案 参考文章: (1)MySQL数据库导入或者同步大量数据时数据丢失解决方案 (2)https://www.cnblogs.com/miss-li/ ...

  5. Atitit.软件GUI按钮与仪表盘--db数据库区--导入mysql sql错误的解决之道

    Atitit.软件GUI按钮与仪表盘--db数据库区--导入mysql sql错误的解决之道 Keyword::截取文本文件后部分 查看提示max_allowed_packet限制 Target Se ...

  6. mysql导入sql文件限制,Mysql导入大容量SQL文件数据有关问题

    Mysql导入大容量SQL文件数据问题 MySQL在通过导入sql文件可能会出现下面二个问题: 1.如果sql文件过大,会出现"MySQL server has gone away" ...

  7. docker导入MySQL文件_Docker容器中Mysql数据的导入/导出详解

    前言 Mysql数据的导入导出我们都知道一个mysqldump命令就能够解决,但如果是运行在docker环境下的mysql呢? 解决办法其实还是用mysqldump命令,但是我们需要进入docker的 ...

  8. MySQL数据库基础(三)数据的导入导出、管理表记录、匹配条件

    数据的导入导出 搜索路径 查看搜索路径 安装时已经自动创建 命令:mysql > show variables like "secure_file_priv"; mysql& ...

  9. mysql 代码如何导出数据_mysql导入导出.sql数据

    导入sql的命令:source "路径名"+/mytest_emp_dept.sql 常用source 命令 进入mysql数据库控制台, 如mysql -u root -p my ...

  10. mysql数据首次导入hive_sqoop1.4.7环境搭建及mysql数据导入导出到hive

    sqoop文档:http://sqoop.apache.org/docs/1.4.7/SqoopUserGuide.html#_prerequisites 在hive创建表和导入数据时必须添加分隔符, ...

最新文章

  1. OpenCV 实现多张图像拼接
  2. [译] 你不需要基于 CSS Grid 的栅格布局系统
  3. Spring.Net官网翻译
  4. 成绩不超过100的C语言,输入若干个学生的百分制成绩,计算平均分并输出.输入-1表示结束,若输入的成绩超过100,则需重新输入.c语言...
  5. 【CV】一文看懂目标检测神器YOLO5
  6. 对比学习(Contrastive Learning)相关进展梳理
  7. windows mysqldump 不成功 1049 1064 报错
  8. PHP5时间相差八小时问题[三种方法]
  9. react中修改antd的默认样式
  10. Entity Framework 6 Recipes 2nd Edition(13-6)译 - 自动编译的LINQ查询
  11. DBUtils结果集处理
  12. linux下的shell操作mysql
  13. 七月算法机器学习笔记2--机器学习中的数学之矩阵分析与应用
  14. 史上最全面“完美商业计划书”攻略和技巧(附PPT模板)
  15. 易飞erp postgre mysql_pgadmin 执行sql
  16. 公关营销策划书的要点及分析
  17. node.js之async的使用(series,whilst)
  18. 汇编INT中断和I/O指令【获取主板时钟】
  19. 百度提交死链的官方标准格式
  20. 【Android UI】贝塞尔曲线 ② ( 二阶贝塞尔曲线公式 | 三阶贝塞尔曲线及公式 | 高阶贝塞尔曲线 )

热门文章

  1. 一起谈.NET技术,ASP.NET Routing对请求的处理方式
  2. linux定时备份Mysql
  3. 1.SRE:Google运维解密 --- 介绍
  4. 10.程序员的自我修养---内存
  5. 62. Event shiftKey 事件属性
  6. css中的clip:rect() 只能在绝对定位的元素上使用
  7. [2019杭电多校第二场][hdu6599]I Love Palindrome String(回文自动机hash)
  8. html 头标签 meta http-equiv 属性应用。
  9. python 常用函数用法
  10. Python 随笔之Redis