一、RDD、DataFrame、DataSet三者概念
1. RDD:全称Resilient Distributed Dataset,弹性分布式数据集,Spark中最基础的数据抽象,特点是RDD只包含数据本身,没有数据结构。

2. DataFrame:也是一个分布式数据容器,除数据本身,还记录了数据的结构信息,即schema;结构信息便于Spark知道该数据集中包含了哪些列,每一列的类型和数据是什么。

3. DataSet:Spark中最上层的数据抽象,不仅包含数据本身,记录了数据的结构信息schema,还包含了数据集的类型,也就是真正把数据集做成了一个java对象的形式,需要先创建一个样例类case class,把数据做成样例类的格式,每一列就是样例类里的属性。

ps:

(1)DataSet是面向对象的思想,把数据变成了对象的属性。

(2)DataSet是强类型,比如可以有DataSet[Car],DataSet[Person](汽车对象数据集,人对象数据集);DataFrame=DataSet[Row],DataFrame是DataSet的特例。

(3)在后期的Spark版本中,DataSet会逐步取代RDD和DataFrame成为唯一的API接口。

二、RDD、DataFrame、DataSet的创建和相互转换
首先是创建方式有区别,

·   RDD的创建方式有三种:

(1)从集合创建:sc.makeRDD(),sc.parallelize()

(2)从外部存储系统的数据集创建:sc.textFile("path或者hdfs://hadoop100:9000/path")

(3)从其他RDD转换

·   DataFrame的创建方式也有三种:

(1)通过spark的数据源进行创建:spark.read.~(“path”)

(2)由RDD转换得来

(3)从HiveTable中查询返回

ps:SparkSQL专用的json格式:{“A”:“B”},去掉了头尾的[ ]

·   DataSet的创建方式有两种:

(1)首先创建样例类(样例类整数类型一般设定为Long,或者BigInt),然后创建DataSet

(2)通过DataFrame转换

注意:当涉及RDD与DF和DS之间互相转换操作时,需要引入import spark.implicits._

scala> import spark.implicits._
1. RDD和DataFrame互转
(1)RDD转DataFrame

1. 首先创建RDD
scala> val personRDD = sc.textFile("/opt/module/datas/people1.txt")
 
2. 查看RDD
scala> personRDD.collect
res0: Array[String] = Array(zhangsan,1, lisi,10, wangwu,20, zhaoliu,30)
 
3. RDD=>DataFrame
scala> personRDD.map{x => val per = x.split(",") ; (per(0),per(1).trim.toInt)}.toDF("name","age")
res1: org.apache.spark.sql.DataFrame = [name: string, age: int]
 
4. 查看DF
scala> res1.show
+--------+---+
|    name|age|
+--------+---+
|zhangsan|  1|
|    lisi| 10|
|  wangwu| 20|
| zhaoliu| 30|
+--------+---+
(2)DataFrame转RDD

1. 通过spark数据源创建DataFrame
scala> val df = spark.read.json("/opt/module/datas/people.json")
df: org.apache.spark.sql.DataFrame = [age: bigint, name: string]
 
2. DF=>RDD
scala> val rdd1 = df.rdd
rdd1: org.apache.spark.rdd.RDD[org.apache.spark.sql.Row] = MapPartitionsRDD[12] at rdd at <console>:28
 
3. 查看RDD
scala> rdd1.collect
res4: Array[org.apache.spark.sql.Row] = Array([10,Michael], [30,Andy], [20,Justin])
2. RDD与DataSet互转
(1)RDD转DataSet

scala> val personRDD = sc.textFile("/opt/module/datas/people1.txt")
 
1. 编写样例类Person
scala> case class Person(name:String,age:Long)
 
2. RDD=>DS
scala> personRDD.map{x => val per = x.split(",") ; Person(per(0),per(1).trim.toInt)}.toDS()
res9: org.apache.spark.sql.Dataset[Person] = [name: string, age: bigint]
 
3. 查看DS
scala> res9.show
+--------+---+
|    name|age|
+--------+---+
|zhangsan|  1|
|    lisi| 10|
|  wangwu| 20|
| zhaoliu| 30|
+--------+---+
(2)DataSet转RDD

1. 编写样例类Person
scala> case class Person(name:String,age:Long)
 
2. 创建DataSet
scala> val ds = Seq(Person("Andy",32)).toDS()
ds: org.apache.spark.sql.Dataset[Person] = [name: string, age: bigint]
 
3. DataSet=>RDD
scala> val rdd2 = ds.rdd
rdd2: org.apache.spark.rdd.RDD[Person] = MapPartitionsRDD[27] at rdd at <console>:33
 
4. 查询RDD
scala> rdd2.collect
res14: Array[Person] = Array(Person(Andy,32))
ps:对比一下RDD转DF,RDD转DS的区别

1. RDD转DF:

personRDD.map{x => val per = x.split(",") ; (per(0),per(1).trim.toInt)}.toDF("name","age")

2. RDD转DS:

case class Person(name:String,age:Long)

personRDD.map{x => val per = x.split(",") ; Person(per(0),per(1).trim.toInt)}.toDS()

3. DataFrame和DataSet的互转
(1)DF=>DS(样例类、df.as[样例类])

1. 通过spark数据源创建DataFrame
scala> val df = spark.read.json("/opt/module/datas/people.json")
 
2. 创建样例类Person
scala> case class Person(name:String,age:Long)
 
3. DF=>DS
scala> val ds = df.as[Person]
ds: org.apache.spark.sql.Dataset[Person] = [age: bigint, name: string]
 
4. 查看DS
scala> ds.show
+---+-------+
|age|   name|
+---+-------+
| 10|Michael|
| 30|   Andy|
| 20| Justin|
+---+-------+
(2)DS=>DF(ds.toDF)

scala> val df2 = ds.toDF
df2: org.apache.spark.sql.DataFrame = [age: bigint, name: string]
 
scala> df2.show
+---+-------+
|age|   name|
+---+-------+
| 10|Michael|
| 30|   Andy|
| 20| Justin|
+---+-------+
 
三、RDD、DataFrame、DataSet互转示意图


1. RDD是最基础的数据类型,在向上转换时,需要添加必要的信息;

转DataFrame:需要添加结构信息并加上列名  toDF("id","name")

转DataSet:需要添加类型信息,写样例类       map(x=>{Emp(x)}).toDS()

2. DataFrame在向上转换时,本身包含结构信息,只添加类型信息即可;

转DataSet:先写样例类,as[Emp]

转RDD:df.rdd

3. DataSet作为最上层的抽象,转换其他对象直接可以往下转;

转DataFrame:ds.toDF

转RDD:ds.rdd

四、RDD、DataFrame、DataSet异同点
1. 相同点
(1)都是spark平台下的弹性分布式数据集,为处理超大型数据提供便利

(2)都是懒执行,在创建、转换如map时,不会立即执行,只有在遇到action算子如foreach时,才会开始运算

(3)都有partition的概念

(4)对DataFrame、DataSet和RDD之间转换需要import spark.implicits._ 这个包的支持

(5)DF和DS都可以通过模式匹配获取各个字段的值和类型

2. 区别
(1)RDD不支持sparksql操作,DF和DS支持sparksql

(2)DF和DS可以注册临时表/视窗,支持sql查询

DF.createOrReplaceTempView("Tmp")
spark.sql("select row,date from Tmp where date is not null order by date").show
(3)DataFrame行的类型都为Row,适配性很强

(4)DataSet很方便于访问列字段的值和类型,但是需要先写明样例类,给DS声明类型

RDD、DataFrame、DataSet原理解析相关推荐

  1. Spark SQL之RDD, DataFrame, DataSet详细使用

    前言 Spark Core 中,如果想要执行应用程序,需要首先构建上下文环境对象 SparkContext,Spark SQL 其实可以理解为对 Spark Core 的一种封装,不仅仅在模型上进行了 ...

  2. sql能查到数据 dataset对象里面没有值_spark系列:RDD、DataSet、DataFrame的区别

    RDD与DataSet的区别 二者都是由元素构成的分布式数据集合 1. 对于spark来说,并不知道RDD元素的内部结构,仅仅知道元素本身的类型,只有用户才了解元素的内部结构,才可以进行处理.分析:但 ...

  3. RDD, DataFrame or Dataset

    RDD, DataFrame or Dataset @(SPARK)[spark] 文章主要内容来自: https://databricks.com/blog/2016/05/11/apache-sp ...

  4. spark原理解析和spark core

    spark原理解析 解析一:resilient distributed dataset (RDD) resilient distributed dataset (RDD):弹性分布式数据集,有容错机制 ...

  5. Android微信小程序原理,微信小程序事件流原理解析

    这篇文章主要介绍了微信小程序事件流原理解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 一.什么是事件? 事件是视图层到逻辑层的通讯方式: 事件可 ...

  6. Fisher线性判别分析原理解析及其Python程序实现两例

    一.Fisher线性判别分析原理解析与算法描述 Fisher:1890-1962, 英国数学家,生物学家,现代统计学奠基人之一,证明了孟德尔的遗传律符合达尔文的进化论. Fisher线性判别分析(Li ...

  7. RDD、DataSet与DataFream

    1.1 什么是RDD? RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变.可分区.里面的元素可并行计算的集合. ...

  8. Spark Shuffle原理解析

    Spark Shuffle原理解析 一:到底什么是Shuffle? Shuffle中文翻译为"洗牌",需要Shuffle的关键性原因是某种具有共同特征的数据需要最终汇聚到一个计算节 ...

  9. 秋色园QBlog技术原理解析:性能优化篇:用户和文章计数器方案(十七)

    2019独角兽企业重金招聘Python工程师标准>>> 上节概要: 上节 秋色园QBlog技术原理解析:性能优化篇:access的并发极限及分库分散并发方案(十六)  中, 介绍了 ...

最新文章

  1. C++ 之new和delete释放内存
  2. python输入变量_Python如何获取用户输入
  3. 11.分页(10-10-12)
  4. 使用Guava MapSplitters配置Hadoop
  5. linux socket资源耗尽,TCP的socket资源被耗尽的问题
  6. 聚合项目访问后台接口失败_【2020】Scry 8月项目进度月报
  7. 人工智障学习笔记——深度学习(2)卷积神经网络
  8. chart控件做实时曲线显示_组态王实时趋势曲线控件介绍,让你对此不再陌生
  9. .NET2.0和microsoft新知识体系-ASP.NET 2.0新特性
  10. 11月22日云栖精选夜读 | 送你一份Spring Boot 知识清单
  11. wincc mysql_Wincc操作数据库SQLSERVER
  12. antdesignpro 权限_ant design pro 权限管理
  13. 2020年最全各省市矢量数据下载(含城市道路、铁路、高速、省道、县道、乡道等+河流水系网+建筑轮廓+铁路网等shp矢量数据+矢量量边界+wgs84坐标
  14. Fone Keeper Mac版,帮你轻松恢复iOS数据
  15. syslog配置及测试
  16. 通信原理仿真100例 | 多普勒频移的matlab仿真
  17. 主流链分片技术和共识算法
  18. IDEA的一些炫酷的插件
  19. 教你一个用计算机表白的方法,七夕示爱教你用文件夹加密方式锁定表白
  20. 构造函数 和 析构函数 能否抛出异常

热门文章

  1. WordCloud:连份好点的词云资料都找不到?我什么时候受过这气!!!
  2. JPA、Hibernate和Spring Data JPA区别
  3. 如何查看主板型号 教你怎么看主板型号
  4. Movie Database(电影数据库)
  5. 第五十八章 SQL函数 FLOOR
  6. 成功解决 word2019设置背景色为护眼的绿色
  7. vs 2015 update 3各版本下载地址
  8. 【Web技术】前端水印实现方案
  9. 骞云科技SmartCMP v3.5版本正式发布
  10. 用Python破解摩斯密码