文章目录

  • 函数
    • 1 系统内置函数
    • 2 常用内置函数
      • 2.1 空字段赋值
      • 2.2 CASE WHEN THEN ELSE END
      • 2.3 行转列
      • 2.4 列转行
      • 2.5 窗口函数(开窗函数)
      • 2.6 Rank

函数

1 系统内置函数

1)查看系统内置函数

show functions;

2)显示自带函数的用法

desc function upper;

3)详细显示自带函数的用法

desc function extended upper;

2 常用内置函数

2.1 空字段赋值

1)函数说明
NVL:给值为 NULL 的数据赋值,它的格式是 NVL( value,default_value)。它的功能是如
果 value 为 NULL,则 NVL 函数返回 default_value 的值,否则返回 value 的值,如果两个参数 都为 NULL ,则返回 NULL。

2)数据准备

1 2000
2
3
4 22
create table if not exists emp(id int,salary int)
row format delimited fields terminated by ' ';load data local inpath '/home/fxw/emp' into table emp;

3)查询:如果员工的 salary 为 NULL,则用-1 代替

select id,NVL(salary,-1) number from emp;

2.2 CASE WHEN THEN ELSE END

1)数据准备

悟空 A 男
大海 A 男
宋宋 B 男
凤姐 A 女
婷姐 B 女
婷婷 B 女

2)需求
求出不同部门男女各多少人。

3)按需求查询数据

select dept_id,
sum(case sex when '男' then 1 else 0 end) male_count,
sum(case sex when '女' then 1 else 0 end) female_count
from emp_sex
group by dept_id;
select dept_id,
sum(if(sex='男',1,0)) male_count,
sum(if(sex='女',1,0)) female_count
from emp_sex
group by dept_id;

2.3 行转列

1)相关函数说明
CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字
符串;
CONCAT_WS(separator, str1, str2,…):它是一个特殊形式的 CONCAT()。第一个参数剩余参
数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将 为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接 的字符串之间;

2)数据准备

vim person_info.txt
name constellation blood_type
孙悟空 白羊座 A
大海 射手座 A
宋宋 白羊座 B
猪八戒 白羊座 A
凤姐 射手座 A
苍老师 白羊座 B

3)需求
把星座和血型一样的人归类到一起。结果如下:

 射手座,A 大海|凤姐
白羊座,A 孙悟空|猪八戒
白羊座,B 宋宋|苍老师

4)创建 hive 表并导入数据

create table if not exists person_info(
name string,constellation string,blood_type string)
row format delimited fields terminated by ' ';load data local inpath '/home/fxw/person_info/' into table person_info;

5)按需求查询数据

SELECT t1.c_b, CONCAT_WS("|",collect_set(t1.name))
FROM (SELECT NAME, CONCAT_WS(',',constellation,blood_type) c_bFROM person_info) t1
GROUP BY t1.c_b

2.4 列转行

1)函数说明

EXPLODE(col)
将 hive 一列中复杂的 Array 或者 Map 结构拆分成多行。
LATERAL VIEW
用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias
解释:用于和 split, explode 等 UDTF 一起使用,它能够将一列数据拆成多行数据,在此
基础上可以对拆分后的数据进行聚合。

2)数据准备

movie_info:
 name       type
《疑犯追踪》  悬疑,动作,科幻,剧情
《Lie to me》 悬疑,警匪,动作,心理,剧情
《战狼 2》  战争,动作,灾难

3)创建 hive 表并导入数据

create table movie_info(name string,type string)
row format delimited fields terminated by "\t";load data local inpath "/home/fxw/movie_info" into table
movie_info;

4)按需求查询数据

select name,movie_type from movie_info
lateral view
explode(split(type,',') type_temp as movie_type;

2.5 窗口函数(开窗函数)

1)相关函数说明

OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。
CURRENT ROW:当前行
n PRECEDING:往前 n 行数据
n FOLLOWING:往后 n 行数据
UNBOUNDED:起点,
UNBOUNDED PRECEDING 表示从前面的起点,
UNBOUNDED FOLLOWING 表示到后面的终点
LAG(col,n,default_val):往前第 n 行数据
LEAD(col,n, default_val):往后第 n 行数据 NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从 1 开始,对于每一行,NTILE 返回此行所属的组的编号。注意:n 必须为 int 类型。

2)数据准备:

name,orderdate,cost
jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94

3)需求
(1)查询在 2017 年 4 月份购买过的顾客及总人数
(2)查询顾客的购买明细及月购买总额
(3)上述的场景, 将每个顾客的 cost 按照日期进行累加
(4)查询每个顾客上次的购买时间
(5)查询前 20%时间的订单信息

4)创建 hive 表并导入数据

create table business(
name string,
orderdate string,
cost int
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';load data local inpath "/opt/module/data/business.txt" into table
business;

6)按需求查询数据
(1) 查询在 2017 年 4 月份购买过的顾客及总人数

 select name,count(*) over ()
from business
where substring(orderdate,1,7) = '2017-04'
group by name;

(2) 查询顾客的购买明细及月购买总额

select name,orderdate,cost,sum(cost) over(partition by month(orderdate))
from business;

(3) 将每个顾客的 cost 按照日期进行累加

select name,orderdate,cost,
sum(cost) over() as sample1,--所有行相加
sum(cost) over(partition by name) as sample2,--按 name 分组,组内数据相加 sum(cost) over(partition by name order by orderdate) as sample3,--按 name 分组,组内数据累加
sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row ) as sample4 ,--和 sample3 一样,由起点到 当前行的聚合
sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING and current row) as sample5, --当前行和前面一行做聚合
sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING AND 1 FOLLOWING ) as sample6,--当前行和前边一行及后面一行
sum(cost) over(partition by name order by orderdate rows between current
row and UNBOUNDED FOLLOWING ) as sample7 --当前行及后面所有行 from business;

rows 必须跟在 order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量

(4) 查看顾客上次的购买时间

select name,orderdate,cost,
lag(orderdate,1,'1900-01-01') over(partition by name order by orderdate )
as time1, lag(orderdate,2) over (partition by name order by orderdate) as
time2
from business;

(5) 查询前 20%时间的订单信息

select * from (select name,orderdate,cost, ntile(5) over(order by orderdate) sortedfrom business
)t
where sorted = 1;

2.6 Rank

1)函数说明
RANK() 排序相同时会重复,总数不会变
DENSE_RANK() 排序相同时会重复,总数会减少
ROW_NUMBER() 会根据顺序计算

2)创建本地 score.txt

name subject score
孙悟空 语文 87
孙悟空 数学 95
孙悟空 英语 68
大海 语文 94
大海 数学 56
大海 英语 84
宋宋 语文 64
宋宋 数学 86
宋宋 英语 84
婷婷 语文 65
婷婷 数学 85
婷婷 英语 78

3)创建 hive 表并导入数据

create table score(
name string,
subject string,
score int)
row format delimited fields terminated by "\t";
load data local inpath '/home/fxw/score.txt' into table score;

4)按需求查询数据

select name,
subject,
score,
rank() over(partition by subject order by score desc) rp,
dense_rank() over(partition by subject order by score desc) drp,
row_number() over(partition by subject order by score desc) rmp
from score;

大数据----Hive学习(6)----Hive 基本操作4相关推荐

  1. B06 - 999、大数据组件学习③ - Hive

    初学耗时:999h 注:CSDN手机端暂不支持章节内链跳转,但外链可用,更好体验还请上电脑端. 『   因为要去见那个不一般的人,所以我就不能是一般人.』  B99.要学就学大数据 - B系列总纲   ...

  2. 大数据单机学习环境搭建(5)Hive建表DDL详解

    专题:大数据单机学习环境搭建和使用 1. Hive建表简单示例 1.1.Hive建表语句 1.2.表详细信息 1.3.数据展示 2. Hive建表语法详解 3.拓展1:复杂数据分割 4.拓展2:事务表 ...

  3. 大数据技术Hbase 和 Hive 详解

    目录 两者的特点 各自的限制 应用场景 大数据技术Hbase 和 Hive 详解, 今天给大家介绍一下关于零基础学习大数据视频教程之HBASE 和 HIVE 是多么重要的技术,那么两者有什么区别呢 ? ...

  4. 深圳大数据培训:大数据开发之掌握Hive的静态分区与动态分区

    深圳大数据培训:大数据开发之掌握Hive的静态分区与动态分区 分区是hive存放数据的一种方式.将列值作为目录来存放数据,就是一个分区. 这样查询时使用分区列进行过滤,只需根据列值直接扫描对应目录下的 ...

  5. 大数据系列之数据仓库Hive命令使用及JDBC连接

    Hive系列博文,持续更新~~~ 大数据系列之数据仓库Hive原理 大数据系列之数据仓库Hive安装 大数据系列之数据仓库Hive中分区Partition如何使用 大数据系列之数据仓库Hive命令使用 ...

  6. **龙战于野大数据MR原理启动hive查询表分区,表结构,完整流程*

    龙战于野大数据MR原理启动hive查询表分区,表结构,完整流程** 如果使用的是mr(原生mapreduce) SET mapreduce.job.queuename=etl;显示表分区: 查看分区 ...

  7. 大数据系列之数据仓库Hive原理

    Hive系列博文,持续更新~~~ 大数据系列之数据仓库Hive原理 大数据系列之数据仓库Hive安装 大数据系列之数据仓库Hive中分区Partition如何使用 大数据系列之数据仓库Hive命令使用 ...

  8. 8年京东大数据架构师推荐的大数据开发学习路线

    一.我们先要了解大数据的工作方向 01.大数据工程师 02.数据分析师 03.大数据科学家 04.其他(数据挖掘本质算是机器学习,不过和数据相关,也可以理解为大数据的一个方向吧) 二.大数据工程师的技 ...

  9. 大数据工程师学习计划

    申明:本文旨在为普通程序员(Java程序员最佳)提供一个入门级别的大数据技术学习路径,不适用于大数据工程师的进阶学习,也不适用于零编程基础的同学. 前言 一.背景介绍 本人目前是一名大数据工程师,项目 ...

  10. java转大数据的学习路线

    不要错过文末彩蛋] 申明: 本文旨在为普通程序员(Java程序员最佳)提供一个入门级别的大数据技术学习路径,不适用于大数据工程师的进阶学习,也不适用于零编程基础的同学. 前言: 一.背景介绍 二.大数 ...

最新文章

  1. CentOS 7下启动、关闭、重启、查看MySQL服务
  2. MWC2015中的LTE软基站(转自GeeFlex)
  3. ConcurrentHashMap源码分析(1)——JDK1.7的实现
  4. MoCo论文中的Algorithm 1伪代码解读
  5. it工程师和码农的区别_毕业生 | IT行业岗位详解
  6. 单例模式的七种实现方法(java版)
  7. matlab knnsearchidx,matlab查找最临近搜索knnsearch
  8. [转]iOS SDK:iOS调试技巧
  9. (19)Verilog HDL顺序块:begin-end
  10. 罗永浩回应被列入老赖名单:就算“卖艺”也会把债务还完
  11. redis高并发数据错乱_redis总结:1T以上海量数据+10万以上QPS高并发+99.99%高可用...
  12. MySql is marked as crashed and should be repaired问题
  13. JPack发布0.5.0
  14. 第十二届蓝桥杯模拟赛Python组(第三期)
  15. SLAB内存泄露分析实践
  16. 【目标检测算法系列】一、R-CNN算法
  17. WiFi 2.4G和5G国家及信道分布
  18. 百兆宽带插网线只有1mb/s的下载速度问题!
  19. 体系结构 记分牌实例
  20. 计算机数字媒体计数专业好就业吗,2019数字媒体技术专业就业形势和就业方向分析...

热门文章

  1. burn suite启动_Microsoft计划(最终)启动Web Office Suite
  2. 【CSS3】text-shadow/text-overflow,边框图片,透明度,小米轮播图子菜单另一种实现,覆盖准则
  3. Python学习笔记——流程控制(拉勾教育数据分析实战训练营学习笔记)
  4. linux合并pdf命令,科学网—[转载]linux下利用命令行工具pdftk对PDF进行合并分割(转载) - 崔鹏碧的博文...
  5. docker部署教程
  6. mongodb 3.4.10 更换集群IP
  7. 【正本清源】Synchronized 源码全解之偏向锁的获取(基于 Openjdk12)
  8. 容器化 Spring Boot 代码的 9 个技巧
  9. 腾讯的这个框架火了!
  10. 计算机网络 第7版 谢希仁 学习通 作业总结