Spark SQL

一、Spark SQL基础

1、Spark SQL简介

Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象叫做DataFrame并且作为分布式SQL

为什么要学习Spark SQL?我们已经学习了Hive,它是将Hive SQL转换成MapReduce然后提交到集群上执行,大大简化了编写MapReduce的程序的复杂性,由于MapReduce这种计算模型执行效率比较慢。所以Spark SQL的应运而生,它是将Spark SQL转换成RDD,然后提交到集群执行,执行效率非常快!同时Spark SQL也支持从Hive中读取数据。

Spark SQL的特点:

1.容易整合(集成)

2.统一的数据访问方式

3.兼容Hive

4.标准的数据连接

2、基本概念:Datasets和DataFrames

DataFrame

DataFrame是组织成命名列的数据集。它在概念上等同于关系数据库中的表,但在底层具有更丰富的优化。DataFrames可以从各种来源构建,

例如:

结构化数据文件

hive中的表

外部数据库或现有RDDs

DataFrame API支持的语言有Scala,Java,Python和R。

从上图可以看出,DataFrame多了数据的结构信息,即schema。RDD是分布式的Java对象的集合。DataFrame是分布式的Row对象的集合。DataFrame除了提供了比RDD更丰富的算子以外,更重要的特点是提升执行效率、减少数据读取以及执行计划的优化

Datasets

Dataset是数据的分布式集合。Dataset是在Spark 1.6中添加的一个新接口,是DataFrame之上更高一级的抽象。它提供了RDD的优点(强类型化,使用强大的lambda函数的能力)以及Spark SQL优化后的执行引擎的优点。一个Dataset可以从JVM对象构造,然后使用函数转换(map,flatMap,filter等)去操作。Dataset API支持Scala和Java。Python不支持Dataset API。

3、测试数据

使用员工表的数据,并已经将其保存到了HDFS上。

emp.csv

dept.csv

4、创建DataFrames

(*)通过Case Class创建DataFrames

① 定义case class(相当于表的结构:Schema)

注意:由于mgr和comm列中包含null值,简单起见,将对应的case class类型定义为String

② 将HDFS上的数据读入RDD,并将RDD与case Class关联

③ 将RDD转换成DataFrames

④ 通过DataFrames查询数据

(*)使用SparkSession

① 什么是SparkSession

Apache Spark 2.0引入了SparkSession,其为用户提供了一个统一的切入点来使用Spark的各项功能,并且允许用户通过它调用DataFrame和Dataset相关API来编写Spark程序。最重要的是,它减少了用户需要了解的一些概念,使得我们可以很容易地与Spark交互。

在2.0版本之前,与Spark交互之前必须先创建SparkConf和SparkContext。然而在Spark 2.0中,我们可以通过SparkSession来实现同样的功能,而不需要显式地创建SparkConf, SparkContext以及SQLContext,因为这些对象已经封装在SparkSession中。

② 创建StructType,来定义Schema结构信息

注意,需要:import org.apache.spark.sql.types._

③ 读入数据并且切分数据

④ 将RDD中的数据映射成Row

注意,需要:import org.apache.spark.sql.Row

⑤ 创建DataFrames

val df = spark.createDataFrame(rowRDD,myschema)

再举一个例子,使用JSon文件来创建DataFame

① 源文件:$SPARK_HOME/examples/src/main/resources/people.json

② val df = spark.read.json("源文件")

③ 查看数据和Schema信息

5、DataFrame操作

DataFrame操作也称为无类型的Dataset操作

(*)查询所有的员工姓名

(*)查询所有的员工姓名和薪水,并给薪水加100块钱

(*)查询工资大于2000的员工

(*)求每个部门的员工人数

完整的例子,请参考:

(*)在DataFrame中使用SQL语句

① 将DataFrame注册成表(视图):df.createOrReplaceTempView("emp")

② 执行查询:spark.sql("select * from emp").show

spark.sql("select * from emp where deptno=10").show

spark.sql("select deptno,sum(sal) from emp group by deptno").show

6、Global Temporary View

上面使用的是一个在Session生命周期中的临时views。在Spark SQL中,如果你想拥有一个临时的view,并想在不同的Session中共享,而且在application的运行周期内可用,那么就需要创建一个全局的临时view。并记得使用的时候加上global_temp作为前缀来引用它,因为全局的临时view是绑定到系统保留的数据库global_temp上。

① 创建一个普通的view和一个全局的view

df.createOrReplaceTempView("emp1")

df.createGlobalTempView("emp2")

② 在当前会话中执行查询,均可查询出结果。

spark.sql("select * from emp1").show

spark.sql("select * from global_temp.emp2").show

③ 开启一个新的会话,执行同样的查询

spark.newSession.sql("select * from emp1").show     (运行出错)

spark.newSession.sql("select * from global_temp.emp2").show

7、创建Datasets

DataFrame的引入,可以让Spark更好的处理结构数据的计算,但其中一个主要的问题是:缺乏编译时类型安全。为了解决这个问题,Spark采用新的Dataset API (DataFrame API的类型扩展)。

Dataset是一个分布式的数据收集器。这是在Spark1.6之后新加的一个接口,兼顾了RDD的优点(强类型,可以使用功能强大的lambda)以及Spark SQL的执行器高效性的优点。所以可以把DataFrames看成是一种特殊的Datasets,即:Dataset(Row)

(*)创建DataSet,方式一:使用序列

1、定义case class

case class MyData(a:Int,b:String)

2、生成序列,并创建DataSet

val ds = Seq(MyData(1,"Tom"),MyData(2,"Mary")).toDS

3、查看结果

(*)创建DataSet,方式二:使用JSON数据

1、定义case class

case class Person(name: String, gender: String)

2、通过JSON数据生成DataFrame

val df = spark.read.json(sc.parallelize("""{"gender": "Male", "name": "Tom"}""" :: Nil))

3、将DataFrame转成DataSet

df.as[Person].show

df.as[Person].collect

(*)创建DataSet,方式三:使用HDFS数据

1、读取HDFS数据,并创建DataSet

val linesDS = spark.read.text("hdfs://hadoop111:9000/data/data.txt").as[String]

2、对DataSet进行操作:分词后,查询长度大于3的单词

val words = linesDS.flatMap(_.split(" ")).filter(_.length > 3)

words.show

words.collect

3、执行WordCount程序

val result = linesDS.flatMap(_.split(" ")).map((_,1)).groupByKey(x => x._1).count

result.show

排序:result.orderBy($"value").show

8、Datasets的操作案例

emp.json

(*)使用emp.json生成DataFrame

val empDF = spark.read.json("/root/resources/emp.json")

查询工资大于3000的员工

empDF.where($"sal" >= 3000).show

(*)创建case class

case class Emp(empno:Long,ename:String,job:String,hiredate:String,mgr:String,sal:Long,comm:String,deptno:Long)

(*)生成DataSets,并查询数据

val empDS = empDF.as[Emp]

查询工资大于3000的员工

empDS.filter(_.sal > 3000).show

查看10号部门的员工

empDS.filter(_.deptno == 10).show

(*)多表查询

1、创建部门表

val deptRDD=sc.textFile("/root/temp/dept.csv").map(_.split(","))

case class Dept(deptno:Int,dname:String,loc:String)

val deptDS = deptRDD.map(x=>Dept(x(0).toInt,x(1),x(2))).toDS

2、创建员工表

case class Emp(empno:Int,ename:String,job:String,mgr:String,hiredate:String,sal:Int,comm:String,deptno:Int)

val empRDD = sc.textFile("/root/temp/emp.csv").map(_.split(","))

val empDS = empRDD.map(x => Emp(x(0).toInt,x(1),x(2),x(3),x(4),x(5).toInt,x(6),x(7).toInt)).toDS

3、执行多表查询:等值链接

val result = deptDS.join(empDS,"deptno")

另一种写法:注意有三个等号

val result = deptDS.joinWith(empDS,deptDS("deptno")=== empDS("deptno"))

joinWith和join的区别是连接后的新Dataset的schema会不一样

(*)查看执行计划:result.explain

二、使用数据源

1、通用的Load/Save函数

(*)什么是parquet文件?

Parquet是列式存储格式的一种文件类型,列式存储有以下的核心:

l 可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。

l 压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如Run Length Encoding和Delta Encoding)进一步节约存储空间。

l 只读取需要的列,支持向量运算,能够获取更好的扫描性能。

l Parquet格式是Spark SQL的默认数据源,可通过spark.sql.sources.default配置

(*)通用的Load/Save函数

l 读取Parquet文件

val usersDF = spark.read.load("/root/resources/users.parquet")

l 查询Schema和数据

l 查询用户的name和喜爱颜色,并保存

usersDF.select($"name",$"favorite_color").write.save("/root/result/parquet")

l 验证结果

(*)显式指定文件格式:加载json格式

l 直接加载:val usersDF = spark.read.load("/root/resources/people.json")

会出错

l val usersDF = spark.read.format("json").load("/root/resources/people.json")

(*)存储模式(Save Modes)

可以采用SaveMode执行存储操作,SaveMode定义了对数据的处理模式。需要注意的是,这些保存模式不使用任何锁定,不是原子操作。此外,当使用Overwrite方式执行时,在输出新数据之前原数据就已经被删除。SaveMode详细介绍如下表:

Demo:

usersDF.select($"name").write.save("/root/result/parquet1")

--> 出错:因为/root/result/parquet1已经存在

usersDF.select($"name").write.mode("overwrite").save("/root/result/parquet1")

(*)将结果保存为表

usersDF.select($"name").write.saveAsTable("table1")

也可以进行分区、分桶等操作:partitionBy、bucketBy

2、Parquet文件

Parquet是一个列格式而且用于多个数据处理系统中。Spark SQL提供支持对于Parquet文件的读写,也就是自动保存原始数据的schema。当写Parquet文件时,所有的列被自动转化为nullable,因为兼容性的缘故。

(*)案例:

读入json格式的数据,将其转换成parquet格式,并创建相应的表来使用SQL进行查询。

(*)Schema的合并:

Parquet支持Schema evolution(Schema演变,即:合并)。用户可以先定义一个简单的Schema,然后逐渐的向Schema中增加列描述。通过这种方式,用户可以获取多个有不同Schema但相互兼容的Parquet文件。

Demo:

3、JSON Datasets

Spark SQL能自动解析JSON数据集的Schema,读取JSON数据集为DataFrame格式。读取JSON数据集方法为SQLContext.read().json()。该方法将String格式的RDD或JSON文件转换为DataFrame。

需要注意的是,这里的JSON文件不是常规的JSON格式。JSON文件每一行必须包含一个独立的、自满足有效的JSON对象。如果用多行描述一个JSON对象,会导致读取出错。读取JSON数据集示例如下:

(*)Demo1:使用Spark自带的示例文件--> people.json文件

定义路径:

val path ="/root/resources/people.json"

读取Json文件,生成DataFrame:

val peopleDF = spark.read.json(path)

打印Schema结构信息:

peopleDF.printSchema()

创建临时视图:

peopleDF.createOrReplaceTempView("people")

执行查询

spark.sql("SELECT name FROM people WHERE age=19").show

4、使用JDBC

Spark SQL同样支持通过JDBC读取其他数据库的数据作为数据源。

Demo演示:使用Spark SQL读取Oracle数据库中的表。

l 启动Spark Shell的时候,指定Oracle数据库的驱动

spark-shell --master spark://spark81:7077            \\

--jars /root/temp/ojdbc6.jar              \\

--driver-class-path /root/temp/ojdbc6.jar

读取Oracle数据库中的数据

(*)方式一:

val oracleDF = spark.read.format("jdbc").

option("url","jdbc:oracle:thin:@192.168.88.101:1521/orcl.example.com").

option("dbtable","scott.emp").

option("user","scott").

option("password","tiger").

load

(*)方式二:

导入需要的类:

import java.util.Properties

定义属性:

val oracleprops = new Properties()

oracleprops.setProperty("user","scott")

oracleprops.setProperty("password","tiger")

读取数据:

val oracleEmpDF =

spark.read.jdbc("jdbc:oracle:thin:@192.168.88.101:1521/orcl.example.com",

"scott.emp",oracleprops)

注意:下面是读取Oracle 10g(Windows 上)的步骤

5、使用Hive Table

l 首先,搭建好Hive的环境(需要Hadoop)

l 配置Spark SQL支持Hive

只需要将以下文件拷贝到$SPARK_HOME/conf的目录下,即可

$HIVE_HOME/conf/hive-site.xml

$HADOOP_CONF_DIR/core-site.xml

$HADOOP_CONF_DIR/hdfs-site.xml

l 使用Spark Shell操作Hive

启动Spark Shell的时候,需要使用--jars指定mysql的驱动程序

创建表

spark.sql("create table src (key INT, value STRING) row format delimited fields terminated by ','")

导入数据

spark.sql("load data local path '/root/temp/data.txt' into table src")

查询数据

spark.sql("select * from src").show

l 使用spark-sql操作Hive

启动spark-sql的时候,需要使用--jars指定mysql的驱动程序

操作Hive

show tables;

select * from 表;

三、性能优化

1、在内存中缓存数据

性能调优主要是将数据放入内存中操作。通过spark.cacheTable("tableName")或者dataFrame.cache()。使用spark.uncacheTable("tableName")来从内存中去除table。

Demo案例:

(*)从Oracle数据库中读取数据,生成DataFrame

val oracleDF = spark.read.format("jdbc")

.option("url","jdbc:oracle:thin:@192.168.88.101:1521/orcl.example.com")

.option("dbtable","scott.emp")

.option("user","scott")

.option("password","tiger").load

(*)将DataFrame注册成表:oracleDF.registerTempTable("emp")

(*)执行查询,并通过Web Console监控执行的时间

spark.sql("select * from emp").show

(*)将表进行缓存,并查询两次,并通过Web Console监控执行的时间

spark.sqlContext.cacheTable("emp")

(*)清空缓存:

spark.sqlContext.cacheTable("emp")

spark.sqlContext.clearCache

2、性能优化相关参数

1.将数据缓存到内存中的相关优化参数

(1)spark.sql.inMemoryColumnarStorage.compressed

默认为 true

Spark SQL 将会基于统计信息自动地为每一列选择一种压缩编码方式。

(2)spark.sql.inMemoryColumnarStorage.batchSize

默认值:10000

缓存批处理大小。缓存数据时, 较大的批处理大小可以提高内存利用率和压缩率,但同时也会带来OOM(Out Of Memory)的风险。

2.其他性能相关的配置选项(不过不推荐手动修改,可能在后续版本自动的自适应修改)

(1)spark.sql.files.maxPartitionBytes

默认值:128 MB

读取文件时单个分区可容纳的最大字节数

(2)spark.sql.files.openCostInBytes

默认值:4M

打开文件的估算成本, 按照同一时间能够扫描的字节数来测量。当往一个分区写入多个文件的时候会使用。高估更好,这样的话小文件分区将比大文件分区更快(先被调度)。

(3)spark.sql.autoBroadcastJoinThreshold

默认值:10M

用于配置一个表在执行 join 操作时能够广播给所有worker节点的最大字节大小。通过将这个值设置为-1可以禁用广播。注意,当前数据统计仅支持已经运行了ANALYZE TABLE COMPUTE STATISTICS noscan命令的Hive Metastore表。

(4)spark.sql.shuffle.partitions

默认值:200

用于配置 join 或聚合操作混洗(shuffle)数据时使用的分区数。

四、在IDEA中开发Spark SQL程序

1、指定Schema格式

packagesparksqlimportorg.apache.spark.sql.{Row, SQLContext, SaveMode, SparkSession}importorg.apache.spark.sql.types._importorg.apache.spark.{SparkConf, SparkContext}

object SpecifyingSchema {

def main(args: Array[String]) {//创建Spark Session对象

val spark = SparkSession.builder().master("local").appName("UnderstandingSparkSession").getOrCreate()//从指定的地址创建RDD

val personRDD = spark.sparkContext.textFile("D:\\temp\\student.txt").map(_.split(" "))//通过StructType直接指定每个字段的schema

val schema =StructType(

List(

StructField("id", IntegerType, true),

StructField("name", StringType, true),

StructField("age", IntegerType, true)

)

)//将RDD映射到rowRDD

val rowRDD = personRDD.map(p => Row(p(0).toInt, p(1).trim, p(2).toInt))//将schema信息应用到rowRDD上

val personDataFrame =spark.createDataFrame(rowRDD, schema)//注册表

personDataFrame.createOrReplaceTempView("t_person")//执行SQL

val df = spark.sql("select * from t_person order by age desc limit 4")//显示结果

df.show()//停止Spark Context

spark.stop()

}

}

2、使用case class

packagedemoimportorg.apache.spark.sql.SparkSession//使用case class

object Demo2 {

def main(args: Array[String]): Unit={//创建SparkSession

val spark = SparkSession.builder().master("local").appName("My Demo 1").getOrCreate()//从指定的文件中读取数据,生成对应的RDD

val lineRDD = spark.sparkContext.textFile("d:\\temp\\student.txt").map(_.split(" "))//将RDD和case class 关联

val studentRDD = lineRDD.map( x => Student(x(0).toInt,x(1),x(2).toInt))//生成 DataFrame,通过RDD 生成DF,导入隐式转换

importspark.sqlContext.implicits._

val studentDF=studentRDD.toDF//注册表 视图

studentDF.createOrReplaceTempView("student")//执行SQL

spark.sql("select * from student").show()

spark.stop()

}

}//case class 一定放在外面

case class Student(stuID:Int,stuName:String,stuAge:Int)

3、就数据保存到数据库

packagedemoimportjava.util.Propertiesimportorg.apache.spark.sql.{Row, SparkSession}importorg.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}//作用:读取本地一个文件, 生成对应 DataFrame,注册表

object Demo1 {

def main(args: Array[String]): Unit={//创建SparkSession

val spark = SparkSession.builder().master("local").appName("My Demo 1").getOrCreate()//从指定的文件中读取数据,生成对应的RDD

val personRDD = spark.sparkContext.textFile("d:\\temp\\student.txt").map(_.split(" "))//创建schema ,通过StructType

val schema =StructType(

List(

StructField("personID",IntegerType,true),

StructField("personName",StringType,true),

StructField("personAge",IntegerType,true)

)

)//将RDD映射到Row RDD 行的数据上

val rowRDD = personRDD.map(p => Row(p(0).toInt,p(1).trim,p(2).toInt))//生成DataFrame

val personDF =spark.createDataFrame(rowRDD,schema)//将DF注册成表

personDF.createOrReplaceTempView("myperson")//执行SQL

val result = spark.sql("select * from myperson")//显示//result.show()//将结果保存到oracle中

val props = newProperties()

props.setProperty("user","scott")

props.setProperty("password","tiger")

result.write.jdbc("jdbc:oracle:thin:@192.168.88.101:1521/orcl.example.com","scott.myperson",props)//如果表已经存在,append的方式数据//result.write.mode("append").jdbc("jdbc:oracle:thin:@192.168.88.101:1521/orcl.example.com","scott.myperson",props)//停止spark context

spark.stop()

}

}

spark数据查询语句select_Spark学习之Spark SQL相关推荐

  1. spark数据查询语句select_sparksql语句

    (1)in 不支持子查询 eg. select * from src where key in(select key from test); 支持查询个数 eg. select * from src ...

  2. spark数据查询语句select_Spark-SQL之DataFrame操作大全

    Spark SQL中的DataFrame类似于一张关系型数据表.在关系型数据库中对单表或进行的查询操作,在DataFrame中都可以通过调用其API接口来实现.可以参考,Scala提供的DataFra ...

  3. spark数据查询语句select_sparksql读取hive表中数据

    文章目录 spark sql与hive本地调试 new HiveContext空指针异常 权限: 异常 执行select查询的时候找不到host spark sql与hive本地调试 将hive-si ...

  4. MySQL学习记录 (二) ----- SQL数据查询语句(DQL)

    相关文章: <MySQL学习记录 (一) ----- 有关数据库的基本概念和MySQL常用命令> <MySQL学习记录 (二) ----- SQL数据查询语句(DQL)> &l ...

  5. MySQL中SQL语句——DQL(数据查询语句)

    前言: 首先对于数据库有一定的了解,会对于Mysql的学习有一定的帮助: 数据库主要分为 DB(数据库),DBMS(数据库管理系统),SQL(结构化查询语言,用于和DBMS通信的语言):这篇要讲的DQ ...

  6. Oracle数据库数据查询语句示例(包含大部分常用语句)

    Oracle数据库数据查询语句示例(包含大部分常用语句) 目标 本文用到的关系模式 语句示例 1.在创建的s,p,j和spj表中完成以下查询 (1)查询零件重量在10-20之间(包括10和20)的零件 ...

  7. MySQL精讲(一) |DQL数据查询语句全解析

    MySQL精讲系列文章(更新完毕) <MySQL入门必看知识> <MySQL精讲(一) | DQL数据查询语句全解析> <MySQL精讲(二) | DML数据操作语句全解 ...

  8. MySQL:DQL 数据查询语句盘点

    本篇内容包括:DQL 的简介.SELECT 语句.WHERE 条件语句.JOIN 连接查询(多表查询)和分组.过滤.排序.分页.子查询的使用. 一.DQL 简介 DQL(Data QueryLangu ...

  9. MySQL数据查询语句

    MySQL数据查询语句 MySQL 表单查询是指从一张表的数据中查询所需的数据,主要有查询所有字段.查询指定字段.查询指定记录.查询空值.多条件的查询.对查询结果进行排序分组等. 查询结构 SELEC ...

  10. SQL语言基础:常用的数据查询语句

    1.创建表 语法格式: creat table <表名> ( <,列名><数据类型>[列级完整性约束条件] <,列名><数据类型>[列级完整 ...

最新文章

  1. 从C语言的角度重构数据结构系列(四)-静态链表动态链表
  2. (私人收藏)[开发必备]HTML5最全快速查找离线手册(可查询可学习,带实例)...
  3. 请问android直接post请求登录地址成功后,webview还是现实登录界面
  4. 20169219 使用Metaspoit攻击MS08-067实验报告
  5. 如果你的苹果Mac键盘锁住了要怎么办呢?快来看看此教程吧!
  6. 免费PR转场 独特的形状过渡PR动态图形模板MOGRT免费下载
  7. python操作word文档,合并
  8. 最强大脑记忆曲线(2)——创建数据库
  9. 无线网络渗透测试(一)基础知识
  10. 【题解】曼哈顿模拟赛(洛谷)
  11. MT4自定义指标导入方法
  12. Python地理地图可视化:folium把百度地图中国城市中心经纬度解析出来并在地图上展示(三)
  13. 微分中的d是什么意思。
  14. 多角度透彻理解渐近表示法(大O表示法)
  15. Suspicious Operation Django
  16. 游戏html登录注册,HTML5 点击开锁小游戏(反应能力测试)
  17. 【mongodb】比较符及修改器
  18. java简单计算器课程设计报告_JAVA课程设计之计算器设计报告
  19. [JAVA实战篇] AES加密的JAVA实现及AES算法讲解
  20. canoe的下载安装【亲测】

热门文章

  1. 安全星球|盘点最新国内外网络安全资讯
  2. Texture贴图材质资源网站分享
  3. linux防火墙查看状态firewall、iptable
  4. ov5640摄像头使用心得
  5. 主流编解码器(H.264 AVC, H.265 HEVC, VP8, VP9)比较
  6. 年终盘点 |15种最常用的数据分析方法和模型,赶紧收藏起来吃灰
  7. 框架设计--第二章 Spring中的Bean--习题答案
  8. phpspider案例
  9. 类人猿学院--懒人精灵脚本系列教程(最新)
  10. python安装time模块_Python之路-Python常用模块-time模块