Hive 03_DML、SerDe、Beeline、JDBC
Hive DML
——LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]
——移动数据文件到Hive表相应的位置。
——FROM from_statement
INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...) [IF NOT EXISTS]] select_statement1 [INSERT OVERWRITE TABLE tablename2 [PARTITION ... [IF NOT EXISTS]] elect_statement2]
[INSERT INTO TABLE tablename2 [PARTITION ...] select_statement2] ...;
Delete
Update
Deletes can only be performed on tables that support ACID. See Hive Transactions for details
Hive SerDe - Serializer and Deserializer
SerDe 用于做序列化和反序列化。
构建在数据存储和执行引擎之间,对两者实现解耦。
Hive通过ROW FORMAT DELIMITED以及SERDE进行内容的读写。
row_format
: DELIMITED
[FIELDS TERMINATED BY char [ESCAPED BY char]]
[COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char]
[LINES TERMINATED BY char]
: SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, ...)]
Hive正则匹配
CREATE TABLE logtbl (
host STRING,
identity STRING,
t_user STRING,
time STRING,
request STRING,
referer STRING,
agent STRING)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.RegexSerDe'
WITH SERDEPROPERTIES (
"input.regex" = "([^ ]*) ([^ ]*) ([^ ]*) \\[(.*)\\] \"(.*)\" (-|[0-9]*) (-|[0-9]*)"
)
STORED AS TEXTFILE;
Beeline
Beeline 要与HiveServer2配合使用
服务端启动hiveserver2 启动元数据服务
客户的通过beeline两种方式连接到hive
1、beeline -u jdbc:hive2://localhost:10000/default -n root
2、beeline
beeline> !connect jdbc:hive2://<host>:<port>/<db>;auth=noSasl root 123
默认 用户名、密码不验证
Hive JDBC运行方式
服务端启动hiveserver2后,在java代码中通过调用hive的jdbc访问默认端口10000进行连接、访问
Hive 03_DML、SerDe、Beeline、JDBC相关推荐
- Hive Serde、Beeline、JDBC
一.Hive Serde 用于做序列化和反序列化,构建在数据存储和执行引擎之间,对二者实现解耦. 创建表的2种规则row format:delimited和serde,正则匹配 创建表: CREATE ...
- Hive 客户端 Beeline 、IDEA|Eclipse使用JDBC连接hiveserver2
1.Beline Beeline 要与HiveServer2配合使用 服务端启动hiveserver2 客户的通过beeline两种方式连接到hive a.beeline -u jdbc:hive2: ...
- 6、HIVE JDBC开发、UDF、体系结构、Thrift服务器、Driver、元数据库Metastore、数据库连接模式、单/多用户模式、远程服务模式、Hive技术原理解析、优化等(整理的笔记)
目录: 5 HIVE开发 5.1 Hive JDBC开发 5.2 Hive UDF 6 Hive的体系结构 6.2 Thrift服务器 6.3 Driver 6.4 元数据库Metastore 6.5 ...
- HIVE的安装配置、mysql的安装、hive创建表、创建分区、修改表等内容、hive beeline使用、HIVE的四种数据导入方式、使用Java代码执行hive的sql命令
1.上传tar包 这里我上传的是apache-hive-1.2.1-bin.tar.gz 2.解压 mkdir -p /home/tuzq/software/hive/ tar -zxvf apach ...
- Apache Hive 2.1.1 安装配置超详细过程,配置hive、beeline、hwi、HCatalog、WebHCat等组件...
2019独角兽企业重金招聘Python工程师标准>>> 在Docker环境成功搭建了Apache Hadoop 2.8 分布式集群,并实现了NameNode HA.ResourceM ...
- hive、impala的客户端,cli、beeline、WebHCat
连接hive有2种形式,hive cli 和 beeline hive提供了以表的形式访问hdfs文件的功能,metastore对外提供表的元数据信息.有了元数据,就可以结构化的表的形式访问hdfs上 ...
- 【干货】Apache Hive 2.1.1 安装配置超详细过程,配置hive、beeline、hwi、HCatalog、WebHCat等组件...
在Docker环境成功搭建了Apache Hadoop 2.8 分布式集群,并实现了NameNode HA.ResourceManager HA之后(详见我的另一篇博文:Apache Hadoop 2 ...
- Hive 本地模式,远程模式模式的搭建、命令行操作、Hive JDBC操作
追风赶月莫停留,平芜尽处是春山. 文章目录 追风赶月莫停留,平芜尽处是春山. 环境 下载安装包,解压到合适位置: Hive 本地模式的搭建 一.配置相关的文件: 二.安装并配置MySQL 三.配置Hi ...
- 2.4-2.5、Hive整合(整合Spark、整合Hbase)、连接方式Cli、HiveServer和hivemetastore、Squirrel SQL Client等
2.4其它整合 2.4.1Hive整合Spark Spark整合hive,需要将hive_home下的conf下的hive_site.xml放到spark_home下的conf目录下.(3台服务器都做 ...
最新文章
- jquery 插件
- mongodb 持久性_多语言持久性:带有MongoDB和Derby的EclipseLink
- 调试JavaScript代码
- mysql乱码问题_mysql乱码问题
- 【李宏毅2020 ML/DL】P25 ELMO, BERT, GPT
- Android AIDL远程服务demo
- 【bozj2287】【[POJ Challenge]消失之物】维护多值递推
- 基于spss的偏相关分析(partial correlation analysis)
- java实现时间轮定时器_基于侵入式链表的时间轮定时器实现
- frm需要金融计算机吗,FRM考试能用哪些金融计算器?(内含用法功能全解读)
- 如何利用手机的OCR文字识别功能制作扫描件?
- MATLAB命令大全
- 多线段几何图形—— 简单几何图形(求几何图形面积)
- ajax hover,jQuery / 使用hover()和toggle()切换事件 - 汇智网
- ev6 ev8 ev4a加密视频破解翻录提取教程
- 疫情来袭,遵义微红科技微商下单系统助力企业转型微商!
- 微信小程序 自定义组件
- 立体库核心干货|智能自动化立体库高承载高强耐受力高效率专用托盘
- fiddler工作原理
- iOS开发者们,请您们面向未来学习,效率学习!
热门文章
- POJ - 3281 Dining(最大流+思维建边)
- 中石油训练赛 - 独居(二分水题)
- HDU - 3397 Sequence operation(线段树+区间合并)
- [luoguP4705]玩游戏
- 【Boost】boost库asio详解7——boost::asio::buffer用法
- 【玩转cocos2d-x之六】节点类CCNode
- go-zero:微服务框架
- ClickHouse 分布式原理:Distributed引擎
- python中的魔法属性和方法
- python练习12