Hive desc详解
转载自:http://www.cnblogs.com/wwxbi/p/4676605.html
Describe Database
1
2
3
4
|
hive> DESCRIBE DATABASE test;
test ??? hdfs://ns1/ user /hive/warehouse/test.db wx USER
hive> DESCRIBE DATABASE EXTENDED test;
test ??? hdfs://ns1/ user /hive/warehouse/test.db wx USER { date =2015-07-18, creator=wx}
|
Describe Table/View/Column
hive> DESCRIBE user_info_bucketed;
user_id bigint
firstname string
lastname string
ds string
# Partition Information
# col_name data_type comment
ds string
hive> DESCRIBE FORMATTED user_info_bucketed.firstname
hive> DESCRIBE FORMATTED user_info_bucketed firstname;
# col_name data_type min max num_nulls distinct_count avg_col_len max_col_len num_trues num_falses comment
firstname string from deserializer
hive> DESCRIBE EXTENDED user_info_bucketed.firstname;
firstname string from deserializer
hive> DESCRIBE FORMATTED user_info_bucketed;
# col_name data_type comment
user_id bigint
firstname string
lastname string
# Partition Information
# col_name data_type comment
ds string
# Detailed Table Information
Database: test
Owner: huai
CreateTime: Sat Jul 25 10:56:50 CST 2015
LastAccessTime: UNKNOWN
Protect Mode: None
Retention: 0
Location: hdfs://ns1/user/hive/warehouse/test.db/user_info_bucketed
Table Type: MANAGED_TABLE
Table Parameters:
comment A bucketed copy of user_info
transient_lastDdlTime 1437793010
# Storage Information
SerDe Library: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
InputFormat: org.apache.hadoop.mapred.TextInputFormat
OutputFormat: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
Compressed: No
Num Buckets: 3
Bucket Columns: [user_id]
Sort Columns: [Order(col:firstname, order:1)]
Storage Desc Params:
serialization.format 1
hive> DESCRIBE EXTENDED user_info_bucketed;
user_id bigint
firstname string
lastname string
ds string
# Partition Information
# col_name data_type comment
ds string
Detailed Table Information Table(tableName:user_info_bucketed, dbName:test, owner:huai, createTime:1437793010, lastAccessTime:0, retention:0, sd:StorageDescriptor(cols:[FieldSchema(name:user_id, type:bigint, comment:null), FieldSchema(name:firstname, type:string, comment:null), FieldSchema(name:lastname, type:string, comment:null), FieldSchema(name:ds, type:string, comment:null)], location:hdfs://ns1/user/hive/warehouse/test.db/user_info_bucketed, inputFormat:org.apache.hadoop.mapred.TextInputFormat, outputFormat:org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat, compressed:false, numBuckets:3, serdeInfo:SerDeInfo(name:null, serializationLib:org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, parameters:{serialization.format=1}), bucketCols:[user_id], sortCols:[Order(col:firstname, order:1)], parameters:{}, skewedInfo:SkewedInfo(skewedColNames:[], skewedColValues:[], skewedColValueLocationMaps:{}), storedAsSubDirectories:false), partitionKeys:[FieldSchema(name:ds, type:string, comment:null)], parameters:{transient_lastDdlTime=1437793010, comment=A bucketed copy of user_info}, viewOriginalText:null, viewExpandedText:null, tableType:MANAGED_TABLE)
Describe Partition
hive> DESCRIBE FORMATTED user_info_bucketed PARTITION (ds='2015-07-25');
# col_name data_type comment
user_id bigint
firstname string
lastname string
# Partition Information
# col_name data_type comment
ds string
# Detailed Partition Information
Partition Value: [2015-07-25]
Database: test
Table: user_info_bucketed
CreateTime: Sat Jul 25 10:59:28 CST 2015
LastAccessTime: UNKNOWN
Protect Mode: None
Location: hdfs://ns1/user/hive/warehouse/test.db/user_info_bucketed/ds=2015-07-25
Partition Parameters:
COLUMN_STATS_ACCURATE true
numFiles 3
numRows 4
rawDataSize 68
totalSize 72
transient_lastDdlTime 1437793168
# Storage Information
SerDe Library: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
InputFormat: org.apache.hadoop.mapred.TextInputFormat
OutputFormat: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
Compressed: No
Num Buckets: 3
Bucket Columns: [user_id]
Sort Columns: [Order(col:firstname, order:1)]
Storage Desc Params:
serialization.format 1
Hive desc详解相关推荐
- Hive入门详解操作
Hive 第一章 Hive简介 1.1. Hive的简介 1.1.1 hive出现的原因 FaceBook网站每天产生海量的结构化日志数据,为了对这些数据进行管理,并且因为机器学习的需求,产生了hiv ...
- Hive Metastore详解大全
1.介绍 Hive所有表和分区的元数据都通过Hive Metastore进行访问.使用JPOX ORM解决方案(Data Nucleus)持久化元数据,因此它支持的任何数据库都可以被Hive使用.它支 ...
- Hive beeline详解
Hive客户端工具后续将使用Beeline 替代HiveCLI ,并且后续版本也会废弃掉HiveCLI 客户端工具,Beeline是 Hive 0.11版本引入的新命令行客户端工具,它是基于SQLLi ...
- 零基础班第十五课 - Hive DDL详解
第一章:上次课回顾 1.1 Hive部署过程中出现的坑 第二章:Hive DDL语句 2.1 图解Hive结构 2.2 创建数据库 2.2.1 数据库建表语句 2.2.2 数据库解析 2.2.3 修改 ...
- Hive Explain 详解
导读 前文 <一文读懂 SQL Server 执行计划> 中介绍过关系型数据库 SQL Server 的执行计划执行计划在数据开发过程中的重要性,以及如何阅读执行计划,根据执行计划分析 S ...
- 5、Hive函数详解与案例实战
1.Hive系统内置函数 1.1.数值计算函数 1.取整函数: round 语法: round(double a) 返回值: BIGINT 说明: 返回double类型的整数值部分 (遵循四舍五入) ...
- java调用kettle连hive_使用java连接hive,并执行hive语句详解
安装hadoop 和 hive我就不多说了,网上太多文章 自己看去 首先,在机器上打开hiveservice hive --service hiveserver -p 50000 & 打开50 ...
- delete hive_「挑战30万年薪」 Hive语句详解之从SQL到HQL的应转习惯
Hive不支持等值连接 SQL中对两表内联可以写成: select * from dual a,dual b where a.key=b.key; Hive中应为: select * from dua ...
- 大数据技术-hive窗口函数详解
有不少同学一听这个标题,hive窗口函数是什么鬼?没听说过还有窗口函数这个东西啊,其实它的用处可大了,下面听小千慢慢道来. hive窗口函数 窗口函数指定了函数工作的数据窗口大小(当前行的上下多少行) ...
最新文章
- oracle bl编译,使用 PL/SQL 条件编译
- BAPC2014 Bamp;amp;HUNNU11582:Button Bashing(BFS)
- C++ WINDOWS API 第2章 Windows API概要
- 添加主键和添加主键约束有什么不同_为什么世界上不同国家之间的食品添加剂标准不同?...
- reset.css 和 flexible.js
- 我的docker随笔3:实现加速器,加快拉取镜像速度
- 代替Reflection(反射)的一些方法
- java工具类,常用的那些方法
- pythoninit_Python __init__.py文件的作用
- ubuntu11.04下如何发送文件到U盘如何添加发送文件到U盘的右键菜单
- gitlab 安装、配置、清空、卸载、重装
- 使用监听器实现实时在线人数统计
- java跨平台是什么意思_java的跨平台性指的什么
- vs2008 html5 的安装,vs2008安装教程,详细教您vs2008安装教程
- VirtualBox 扩展VDI空间
- 创建微信小程序日期和时间的组件
- 使用ShaderGraph制作漩涡消散效果
- oracle-经典图书收集
- 三角函数专题【高阶辅导】
- android在线预览excel文件格式,Android打开doc、xlsx、ppt等office文档解决方案
热门文章
- Python入门 判断用户输入的数是正数还是负数
- match在java中文翻译_match是什么意思_match的翻译_音标_读音_用法_例句_爱词霸在线词典...
- C++ 一元二次方程求根,直输方程可含分数(附源码、注释)
- day08-java
- 微信最强花式操作,带你玩转 wxpy
- python如何做混合模型面板回归_面板模型回归操作指南,适合初学者!
- buuctf crypto 萌哒哒的八戒
- 图片放大模糊怎么办?要想图片无损放大不失真就试试HitPaw Photo Enhancer吧!!!
- ROS - MoveIt 学习
- 神经网络优化算法nag_数值算法组(NAG)向Java开发库添加了新功能