一、 创建表

在官方的wiki里,example是这样的:

Sql代码

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name

[(col_name data_type [COMMENT col_comment], ...)]

[COMMENT table_comment]

[PARTITIONED BY (col_name data_type

[COMMENT col_comment], ...)]

[CLUSTERED BY (col_name, col_name, ...)

[SORTED BY (col_name [ASC|DESC], ...)]

INTO num_buckets BUCKETS]

[ROW FORMAT row_format]

[STORED AS file_format]

[LOCATION hdfs_path]

[ROW FORMAT DELIMITED]关键字,是用来设置创建的表在加载数据的时候,支持的列分隔符;

[STORED AS file_format]关键字是用来设置加载数据的数据类型。Hive本身支持的文件格式只有:Text File,Sequence File。如果文件数据是纯文本,可以使用 [STORED AS TEXTFILE]。如果数据需要压缩,使用 [STORED AS SEQUENCE] 。通常情况,只要不需要保存序列化的对象,我们默认采用[STORED AS TEXTFILE]。

那么我们创建一张普通的hive表,hive sql就如下:

Sql代码    

CREATE TABLE test_1(id INT, name STRING, city STRING) SORTED BY TEXTFILE ROW FORMAT DELIMITED‘\t’

其中,hive支持的字段类型,并不多,可以简单的理解为数字类型和字符串类型,详细列表如下:

Sql代码    

TINYINT

SMALLINT

INT

BIGINT

BOOLEAN

FLOAT

DOUBLE

STRING

Hive的表,与普通关系型数据库,如mysql在表上有很大的区别,所有hive的表都是一个文件,它是基于Hadoop的文件系统来做的。

hive总体来说可以总结为三种不同类型的表。

1. 普通表

普通表的创建,如上所说,不讲了。其中,一个表,就对应一个表名对应的文件。

2. 外部表

EXTERNAL 关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。具体sql如下:

Sql代码    

CREATE EXTERNAL TABLE test_1(id INT, name STRING, city STRING) SORTED BY TEXTFILE ROW FORMAT DELIMITED‘\t’ LOCATION ‘hdfs://../../..’

3. 分区表

有分区的表可以在创建的时候使用 PARTITIONED BY 语句。一个表可以拥有一个或者多个分区,每一个分区单独存在一个目录下。而且,表和分区都可以对某个列进行 CLUSTERED BY 操作,将若干个列放入一个桶(bucket)中。也可以利用SORT BY 对数据进行排序。这样可以为特定应用提高性能。具体SQL如下:

Sql代码    

CREATE TABLE test_1(id INT, name STRING, city STRING) PARTITIONED BY (pt STRING) SORTED BY TEXTFILE ROW FORMAT DELIMITED‘\t’

Hive的排序,因为底层实现的关系,比较不同于普通排序,这里先不讲。

桶的概念,主要是为性能考虑,可以理解为对分区内列,进行再次划分,提高性能。在底层,一个桶其实是一个文件。如果桶划分过多,会导致文件数量暴增,一旦达到系统文件数量的上限,就杯具了。哪种是最优数量,这个哥也不知道。

分区表实际是一个文件夹,表名即文件夹名。每个分区,实际是表名这个文件夹下面的不同文件。分区可以根据时间、地点等等进行划分。比如,每天一个分区,等于每天存每天的数据;或者每个城市,存放每个城市的数据。每次查询数据的时候,只要写下类似 where pt=2010_08_23这样的条件即可查询指定时间得数据。

总体而言,普通表,类似mysql的表结构,外部表的意义更多是指数据的路径映射。分区表,是最难以理解,也是最hive最大的优势。之后会专门针对分区表进行讲解。

二、 加载数据

Hive不支持一条一条的用insert语句进行插入操作,也不支持update的操作。数据是以load的方式,加载到建立好的表中。数据一旦导入,则不可修改。要么drop掉整个表,要么建立新的表,导入新的数据。

官方指导为:

Sql代码    

LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]

Hive在数据load这块,大方向分为两种方式,load文件或者查询一张表,或者将某张表里的额查询结果插入指定表。

如果划分更细一点个人归纳总结为4种不同的方式的load:

1. Load data到指定的表

直接将file,加载到指定的表,其中,表可以是普通表或者分区表。具体sql如下:

Sql代码    

LOAD DATA LOCAL INPATH '/home/admin/test/test.txt' OVERWRITE INTO TABLE test_1

关键字[OVERWRITE]意思是是覆盖原表里的数据,不写则不会覆盖。

关键字[LOCAL]是指你加载文件的来源为本地文件,不写则为hdfs的文件。

其中

‘home/admin/test/test.txt’是相对路径

‘/home/admin/test/test.txt’为据对路径

2. load到指定表的分区

直接将file,加载到指定表的指定分区。表本身必须是分区表,如果是普通表,导入会成功,但是数据实际不会被导入。具体sql如下:

Sql代码    

LOAD DATA LOCAL INPATH '/home/admin/test/test.txt' OVERWRITE INTO TABLE test_1 PARTITION(pt=’xxxx)

load数据,hive支持文件夹的方式,将文件夹内的所有文件,都load到指定表中。Hdfs会将文件系统内的某文件夹路径内的文件,分散到不同的实际物理地址中。这样,在数据量很大的时候,hive支持读取多个文件载入,而不需要限定在唯一的文件中。

3. insert+select

这个是完全不同于文件操作的数据导入方式。官方指导为:

Sql代码    

Standard syntax:

INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1 FROM from_statement

Hive extension (multiple inserts):

FROM from_statement

INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1

[INSERT OVERWRITE TABLE tablename2 [PARTITION ...] select_statement2] ...

Hive extension (dynamic partition inserts):

INSERT OVERWRITE TABLE tablename PARTITION (partcol1[=val1], partcol2[=val2] ...) select_statement FROM from_statement

这个的用法,和上面两种直接操作file的方式,截然不同。从sql语句本身理解,就是把查询到的数据,直接导入另外一张表。这个暂时不仔细分析,之后查询章节,再细讲。

4. alter 表,对分区操作

在对表结构进行修改的时候,我们可以增加一个新的分区,在增加新分区的同时,将数据直接load到新的分区当中。

Sql代码    

ALTER TABLE table_name ADD

partition_spec [ LOCATION 'location1' ]

partition_spec [ LOCATION 'location2' ] ...

三、 查询

……

hive支持所有mysql语法_Hive sql 语法解读 | 学步园相关推荐

  1. hivesql修改字段类型_Hive SQL语法总结

    Hive是一个数据仓库基础的应用工具,在Hadoop中用来处理结构化数据,它架构在Hadoop之上,通过SQL来对数据进行操作,了解SQL的人,学起来毫不费力. Hive 查询操作过程严格遵守Hado ...

  2. hive查询错误mysql编码_hive mysql 编码问题

    在安装Hive时,经常报异常. 后来采用输出日志的方式来开启hive:hive -hiveconf hive.root.logger=DEBUG,console 这样在执行命令时,就会输出日志,出现异 ...

  3. mysql超长sql查询_超长SQL怎么查询?MySQL列长度限制有哪些 | 学步园

    MySQL字符串的限制长度看似重要性不要,其实和整个MySQL数据库的安全性是息息相关的,很值得我们去深入研究分析.SQL注入攻击一直都在被广泛的讨论,然而人们却忽略了今天我将要介绍的这两个安全隐患, ...

  4. MySQL理论基础以及sql语法

    本文章目标: 1.了解基础理论 2.必须会写sql语句(重点是查询语句) 碎碎念: mysql下载安装最好的教程之一,想当年我大一啥也不懂,装MySQL装了一个星期还是失败,呜呜呜呜,联系了这个博客的 ...

  5. mysql常见的sql语法示例

    文章目录 1. 对表的操作 1.1 建表操作 1.2 删除表 2. 对表字段的操作 2.1 添加字段 2.2 修改字段的长度或者类型 2.3 修改字段的名称 2.4 删除字段 2.5 批量操作字段 3 ...

  6. hive的条件查询语句_Hive SQL 条件函数 IF 详解

    Hive SQL 条件函数 IF 是用于处理单个列的判断查询结果,形式为 if(条件表达式, 结果1, 结果2),相当于 java 中的三目运算符,只是 if 后面的表达式类型可以不一样. 语法说明 ...

  7. percona toolkit for mysql_Percona Toolkit for MySQL安装(CentOS5.8) | 学步园

    下载percona-toolkit-2.2.5-2.noarch.rpm 安装percona-toolkit-2.2.5-2.noarch.rpm sudo rpm -i percona-toolki ...

  8. mysql C openmp_OpenMP: sections分段并行 | 学步园

    除了循环结构可以进行并行之外,还可以进行分段并行(parallel section).迄今为止,每谈到如何去并行一个程序时,我们主要关心的是在同一时间将一个任务划分成多个然后用多线程去完成.然而,如果 ...

  9. java 调用mysql视图_java 访问数据库视图 | 学步园

    工作多年调用视图到多次,自己写代码使用视图还是头一回,也觉得新鲜,那就开始呗, 数据库系统是Oracle 1 我用的数据库连接客户端是Navicat ,首先创建视图,其实视图就是调用表的操作,提取自己 ...

最新文章

  1. 如何在linux下检测内存泄漏
  2. git 客户端查看不同分支的文件
  3. 数组中删数(只删一个)
  4. ADO.NET改进防注入
  5. vxlan 分布式网关数据包转发过程_Vxlan基础
  6. 矩池云上安装chumpy失败
  7. as android.mk 变色,FFmpeg4Android:AS中使用NDK
  8. cmd查看mysql版本_mysql安装-必会
  9. 中文文字校对和文档对比合并开源工具调研
  10. 服务器SQL上的MSDTC不可用解决办法
  11. 语音控制系统(1)-----项目前言
  12. 一文看懂马尔科夫过程
  13. shotcut添加字幕
  14. 手把手教你做小米商城-商品展示页面
  15. 用python把图片换成蓝底_用python 将蓝底照片转化为白底照片
  16. 《奇特的一生:柳比歇夫坚持56年的时间统计法》的读书笔记(作者: 【俄】格拉宁)
  17. pytorch学习(二)梯度:什么叫梯度?什么叫梯度下降
  18. 了解爬虫的风险与以及如何规避风险-Java网络爬虫系统性学习与实战系列(3)
  19. 30 张图带你了解 CPU 制作全过程
  20. 流程引擎规则引擎_规则引擎的优势

热门文章

  1. 集合转数组的两种方法
  2. FlexBuilder优化技巧
  3. Android Studio里面的Build.gradle的详细配置
  4. CMCC-EDU 登陆过程分析 图文详解
  5. three 天空球_three.js添加场景背景和天空盒(skybox)
  6. java代码实现id_使用java代码实现简单的ID自增的工具类
  7. python 私有变量得访问_Python 私有变量的访问和赋值
  8. vue3基础-组合式API之computed
  9. JAVA EE企业级应用开发教程章7-8章
  10. CCPC 2018 吉林 H LOVERS (线段树)