scoope导入数据_scoop导入数据从mysql到hive
mysql里的表格式:
desc track_log18;CREATE TABLE `track_log18` (
`id` varchar(1000) DEFAULT NULL,
`url` varchar(5000) DEFAULT NULL,
`referer` varchar(5000) DEFAULT NULL,
`keyword` varchar(5000) DEFAULT NULL,
`type` varchar(1000) DEFAULT NULL,
`guid` varchar(1000) DEFAULT NULL,
`pageId` varchar(1000) DEFAULT NULL,
`moduleId` varchar(1000) DEFAULT NULL,
`linkId` varchar(1000) DEFAULT NULL,
`attachedInfo` varchar(1000) DEFAULT NULL,
`sessionId` varchar(1000) DEFAULT NULL,
`trackerU` varchar(1000) DEFAULT NULL,
`trackerType` varchar(1000) DEFAULT NULL,
`ip` varchar(1000) DEFAULT NULL,
`trackerSrc` varchar(1000) DEFAULT NULL,
`cookie` varchar(5000) DEFAULT NULL,
`orderCode` varchar(1000) DEFAULT NULL,
`trackTime` varchar(1000) DEFAULT NULL,
`endUserId` varchar(1000) DEFAULT NULL,
`firstLink` varchar(1000) DEFAULT NULL,
`sessionViewNo` varchar(5000) DEFAULT NULL,
`productId` varchar(1000) DEFAULT NULL,
`curMerchantId` varchar(1000) DEFAULT NULL,
`provinceId` varchar(1000) DEFAULT NULL,
`cityId` varchar(1000) DEFAULT NULL,
`ds` varchar(20) DEFAULT NULL, //ds 在hive表里是分区字段
`hour` varchar(20) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=latin1; //hour在hive表里是分区字段
1 直接导入到hdfs的文件系统
表格式如下:
desc track_log;
id string
url string
。。。
cityid string
ds string
hour string
# Partition Information
# col_name data_type comment
ds string
hour string
jimmy>sqoop import --connect jdbc:mysql://localhost:3306/track_log --username root --password Nokia123
--table track_log18 //mysql的源表
--target-dir /user/hive/warehouse/track_log/ds=20150827/hour=18 //直接到hdfs,
--split-by id //根据id分段生成多个文件
结果自动生成多个文件:
-rw-r--r-- 1 jimmy supergroup 0 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/_SUCCESS
-rw-r--r-- 1 jimmy supergroup 0 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00000
-rw-r--r-- 1 jimmy supergroup 13711664 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00001
-rw-r--r-- 1 jimmy supergroup 2712180 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00002
-rw-r--r-- 1 jimmy supergroup 2655849 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00003
-rw-r--r-- 1 jimmy supergroup 2576800 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00004
-rw-r--r-- 1 jimmy supergroup 1391853 2016-12-18 15:17 /user/hive/warehouse/track_log/ds=20150827/hour=18/part-m-00005
注意:
A)导入后还要在hive里指定分区地址:
hive》alter table track_log add partition(ds='20150828' ,hour='17') location '/user/hive/warehouse/track_log/ds=20150827/hour=18';
B)hive查询时候有问题 ,比如select id from track_log时候返回多列
2.导入到hive表里
这里表track_log19从track_log拷贝而来,就没有分区了
hive>create table track_log19 as select * from track_log;
表格式如下:
desc track_log19;
OK
id string
...
ds string //ds仍然是字段,但不是分区
hour string //hour仍然是字段,但不是分区
jimmy>sqoop import --connect jdbc:mysql://localhost:3306/track_log --username root --password Nokia123 - -table track_log19 //源表
--hive-import
--hive-table track_log19 //目的表
--hive-overwrite
-m 1 //(最后生成一个文件)
结果(直接到warehouse下目录生成文件track_log19)
drwxrwxrwx - jimmy supergroup 0 2016-12-18 15:17 /user/hive/warehouse/track_log drwxrwxrwx - jimmy supergroup 0 2016-12-18 15:35 /user/hive/warehouse/track_log19
scoope导入数据_scoop导入数据从mysql到hive相关推荐
- 数据同步Sqoop用法之mysql与Hive导入导出
目录 一. Sqoop介绍 二. Mysql 数据导入到 Hive 三. Hive数据导入到Mysql 四. mysql数据增量导入hive 1). 新建一张表 2). 初始化hive表: 1). 创 ...
- 数据工具sqoop用法之mysql与hive数据导入导出
一.pom org.apache.hive hive-jdbc 1.1.0 org.apache.hadoop hadoop-common 2.6.0 org.mybatis mybatis 3.4. ...
- MySQL基础day03_数据的导入、导出-MySQL 5.6
MySQL基础day03_数据的导入.导出-MySQL 5.6 注:把数据按照一定格式存放到文件里才能进行数据的导入. 1,数据导入的条件 把文件里的内容保存到数据的表里: 把数据按照一定格式存放文件 ...
- MySQL数据库导入或者同步大量数据时数据丢失解决方案
MySQL数据库导入或者同步大量数据时数据丢失解决方案 参考文章: (1)MySQL数据库导入或者同步大量数据时数据丢失解决方案 (2)https://www.cnblogs.com/miss-li/ ...
- Atitit.软件GUI按钮与仪表盘--db数据库区--导入mysql sql错误的解决之道
Atitit.软件GUI按钮与仪表盘--db数据库区--导入mysql sql错误的解决之道 Keyword::截取文本文件后部分 查看提示max_allowed_packet限制 Target Se ...
- mysql导入sql文件限制,Mysql导入大容量SQL文件数据有关问题
Mysql导入大容量SQL文件数据问题 MySQL在通过导入sql文件可能会出现下面二个问题: 1.如果sql文件过大,会出现"MySQL server has gone away" ...
- docker导入MySQL文件_Docker容器中Mysql数据的导入/导出详解
前言 Mysql数据的导入导出我们都知道一个mysqldump命令就能够解决,但如果是运行在docker环境下的mysql呢? 解决办法其实还是用mysqldump命令,但是我们需要进入docker的 ...
- MySQL数据库基础(三)数据的导入导出、管理表记录、匹配条件
数据的导入导出 搜索路径 查看搜索路径 安装时已经自动创建 命令:mysql > show variables like "secure_file_priv"; mysql& ...
- mysql 代码如何导出数据_mysql导入导出.sql数据
导入sql的命令:source "路径名"+/mytest_emp_dept.sql 常用source 命令 进入mysql数据库控制台, 如mysql -u root -p my ...
- mysql数据首次导入hive_sqoop1.4.7环境搭建及mysql数据导入导出到hive
sqoop文档:http://sqoop.apache.org/docs/1.4.7/SqoopUserGuide.html#_prerequisites 在hive创建表和导入数据时必须添加分隔符, ...
最新文章
- OpenCV 实现多张图像拼接
- [译] 你不需要基于 CSS Grid 的栅格布局系统
- Spring.Net官网翻译
- 成绩不超过100的C语言,输入若干个学生的百分制成绩,计算平均分并输出.输入-1表示结束,若输入的成绩超过100,则需重新输入.c语言...
- 【CV】一文看懂目标检测神器YOLO5
- 对比学习(Contrastive Learning)相关进展梳理
- windows mysqldump 不成功 1049 1064 报错
- PHP5时间相差八小时问题[三种方法]
- react中修改antd的默认样式
- Entity Framework 6 Recipes 2nd Edition(13-6)译 - 自动编译的LINQ查询
- DBUtils结果集处理
- linux下的shell操作mysql
- 七月算法机器学习笔记2--机器学习中的数学之矩阵分析与应用
- 史上最全面“完美商业计划书”攻略和技巧(附PPT模板)
- 易飞erp postgre mysql_pgadmin 执行sql
- 公关营销策划书的要点及分析
- node.js之async的使用(series,whilst)
- 汇编INT中断和I/O指令【获取主板时钟】
- 百度提交死链的官方标准格式
- 【Android UI】贝塞尔曲线 ② ( 二阶贝塞尔曲线公式 | 三阶贝塞尔曲线及公式 | 高阶贝塞尔曲线 )
热门文章
- 一起谈.NET技术,ASP.NET Routing对请求的处理方式
- linux定时备份Mysql
- 1.SRE:Google运维解密 --- 介绍
- 10.程序员的自我修养---内存
- 62. Event shiftKey 事件属性
- css中的clip:rect() 只能在绝对定位的元素上使用
- [2019杭电多校第二场][hdu6599]I Love Palindrome String(回文自动机hash)
- html 头标签 meta http-equiv 属性应用。
- python 常用函数用法
- Python 随笔之Redis