DataFrame和Dataset简介

一、Spark SQL简介

Spark SQL 是 Spark 中的一个子模块,主要用于操作结构化数据。它具有以下特点:

  • 能够将 SQL 查询与 Spark 程序无缝混合,允许您使用 SQL 或 DataFrame API 对结构化数据进行查询;
  • 支持多种开发语言;
  • 支持多达上百种的外部数据源,包括 Hive,Avro,Parquet,ORC,JSON 和 JDBC 等;
  • 支持 HiveQL 语法以及 Hive SerDes 和 UDF,允许你访问现有的 Hive 仓库;
  • 支持标准的 JDBC 和 ODBC 连接;
  • 支持优化器,列式存储和代码生成等特性;
  • 支持扩展并能保证容错。

二、DataFrame & DataSet

2.1 DataFrame

为了支持结构化数据的处理,Spark SQL 提供了新的数据结构 DataFrame。DataFrame 是一个由具名列组成的数据集。它在概念上等同于关系数据库中的表或 R/Python 语言中的 data frame。 由于 Spark SQL 支持多种语言的开发,所以每种语言都定义了 DataFrame 的抽象,主要如下:

语言 主要抽象
Scala Dataset[T] & DataFrame (Dataset[Row] 的别名)
Java Dataset[T]
Python DataFrame
R DataFrame

2.2 DataFrame 对比 RDDs

DataFrame 和 RDDs 最主要的区别在于一个面向的是结构化数据,一个面向的是非结构化数据,它们内部的数据结构如下:

DataFrame 内部的有明确 Scheme 结构,即列名、列字段类型都是已知的,这带来的好处是可以减少数据读取以及更好地优化执行计划,从而保证查询效率。

DataFrame 和 RDDs 应该如何选择?

  • 如果你想使用函数式编程而不是 DataFrame API,则使用 RDDs;
  • 如果你的数据是非结构化的 (比如流媒体或者字符流),则使用 RDDs,
  • 如果你的数据是结构化的 (如 RDBMS 中的数据) 或者半结构化的 (如日志),出于性能上的考虑,应优先使用 DataFrame。

2.3 DataSet

Dataset 也是分布式的数据集合,在 Spark 1.6 版本被引入,它集成了 RDD 和 DataFrame 的优点,具备强类型的特点,同时支持 Lambda 函数,但只能在 Scala 和 Java 语言中使用。在 Spark 2.0 后,为了方便开发者,Spark 将 DataFrame 和 Dataset 的 API 融合到一起,提供了结构化的 API(Structured API),即用户可以通过一套标准的 API 就能完成对两者的操作。

这里注意一下:DataFrame 被标记为 Untyped API,而 DataSet 被标记为 Typed API,后文会对两者做出解释。

2.4 静态类型与运行时类型安全

静态类型 (Static-typing) 与运行时类型安全 (runtime type-safety) 主要表现如下:

在实际使用中,如果你用的是 Spark SQL 的查询语句,则直到运行时你才会发现有语法错误,而如果你用的是 DataFrame 和 Dataset,则在编译时就可以发现错误 (这节省了开发时间和整体代价)。DataFrame 和 Dataset 主要区别在于:

在 DataFrame 中,当你调用了 API 之外的函数,编译器就会报错,但如果你使用了一个不存在的字段名字,编译器依然无法发现。而 Dataset 的 API 都是用 Lambda 函数和 JVM 类型对象表示的,所有不匹配的类型参数在编译时就会被发现。

以上这些最终都被解释成关于类型安全图谱,对应开发中的语法和分析错误。在图谱中,Dataset 最严格,但对于开发者来说效率最高。

上面的描述可能并没有那么直观,下面的给出一个 IDEA 中代码编译的示例:

这里一个可能的疑惑是 DataFrame 明明是有确定的 Scheme 结构 (即列名、列字段类型都是已知的),但是为什么还是无法对列名进行推断和错误判断,这是因为 DataFrame 是 Untyped 的。

2.5 Untyped & Typed

在上面我们介绍过 DataFrame API 被标记为 Untyped API,而 DataSet API 被标记为 Typed API。DataFrame 的 Untyped 是相对于语言或 API 层面而言,它确实有明确的 Scheme 结构,即列名,列类型都是确定的,但这些信息完全由 Spark 来维护,Spark 只会在运行时检查这些类型和指定类型是否一致。这也就是为什么在 Spark 2.0 之后,官方推荐把 DataFrame 看做是 DatSet[Row],Row 是 Spark 中定义的一个 trait,其子类中封装了列字段的信息。

相对而言,DataSet 是 Typed 的,即强类型。如下面代码,DataSet 的类型由 Case Class(Scala) 或者 Java Bean(Java) 来明确指定的,在这里即每一行数据代表一个 Person,这些信息由 JVM 来保证正确性,所以字段名错误和类型错误在编译的时候就会被 IDE 所发现。

case class Person(name: String, age: Long)
val dataSet: Dataset[Person] = spark.read.json("people.json").as[Person]

三、DataFrame & DataSet & RDDs 总结

这里对三者做一下简单的总结:

  • RDDs 适合非结构化数据的处理,而 DataFrame & DataSet 更适合结构化数据和半结构化的处理;
  • DataFrame & DataSet 可以通过统一的 Structured API 进行访问,而 RDDs 则更适合函数式编程的场景;
  • 相比于 DataFrame 而言,DataSet 是强类型的 (Typed),有着更为严格的静态类型检查;
  • DataSets、DataFrames、SQL 的底层都依赖了 RDDs API,并对外提供结构化的访问接口。

四、Spark SQL的运行原理

DataFrame、DataSet 和 Spark SQL 的实际执行流程都是相同的:

  1. 进行 DataFrame/Dataset/SQL 编程;
  2. 如果是有效的代码,即代码没有编译错误,Spark 会将其转换为一个逻辑计划;
  3. Spark 将此逻辑计划转换为物理计划,同时进行代码优化;
  4. Spark 然后在集群上执行这个物理计划 (基于 RDD 操作) 。

4.1 逻辑计划(Logical Plan)

执行的第一个阶段是将用户代码转换成一个逻辑计划。它首先将用户代码转换成 unresolved logical plan(未解决的逻辑计划),之所以这个计划是未解决的,是因为尽管您的代码在语法上是正确的,但是它引用的表或列可能不存在。 Spark 使用 analyzer(分析器) 基于 catalog(存储的所有表和 DataFrames 的信息) 进行解析。解析失败则拒绝执行,解析成功则将结果传给 Catalyst 优化器 (Catalyst Optimizer),优化器是一组规则的集合,用于优化逻辑计划,通过谓词下推等方式进行优化,最终输出优化后的逻辑执行计划。

4.2 物理计划(Physical Plan)

得到优化后的逻辑计划后,Spark 就开始了物理计划过程。 它通过生成不同的物理执行策略,并通过成本模型来比较它们,从而选择一个最优的物理计划在集群上面执行的。物理规划的输出结果是一系列的 RDDs 和转换关系 (transformations)。

4.3 执行

在选择一个物理计划后,Spark 运行其 RDDs 代码,并在运行时执行进一步的优化,生成本地 Java 字节码,最后将运行结果返回给用户。

SparkSQL_Dataset和DataFrame简介相关推荐

  1. 海康网络摄像头忘记密码_不要忘记网络性能

    海康网络摄像头忘记密码 Amazon released a famous statement in the late 2000s stating that every hundred millisec ...

  2. dataframe 空值替换为0_Python数据分析:Pandas之DataFrame

    内容目录 DataFrame简介 DataFrame创建方式 DataFrame索引和切片 DataFrame属性 DataFrame级联与合并 DataFrame基本操作 DataFrame分组聚合 ...

  3. Spark修炼之道(进阶篇)——Spark入门到精通:第八节 Spark SQL与DataFrame(一)

    本节主要内宾 Spark SQL简介 DataFrame 1. Spark SQL简介 Spark SQL是Spark的五大核心模块之一,用于在Spark平台之上处理结构化数据,利用Spark SQL ...

  4. python——pandas库之DataFrame数据结构基础

    DataFrame简介 dataframe表示的是矩阵的数据表,每一列可以是不同的值类型,可以看作一个共享相同索引的Series字典.在dataframe中,数据被存储为一个以上的二维块 1.利用等长 ...

  5. 数据分析---数据处理工具pandas(二)

    文章目录 数据分析---数据处理工具pandas(二) 一.Pandas数据结构Dataframe:基本概念及创建 1.DataFrame简介 2.创建Dataframe (1)方法一:由数组/lis ...

  6. PySpark线性回归与广义线性模型

    PySpark线性回归与广义线性模型 1.线性回归 2.岭回归(Ridge Regression)与LASSO回归(LASSO Regression) 3.广义线性模型 (GLM) 本文为销量预测第7 ...

  7. 【Pandas】数据分析入门

    文章目录 前言 一.Pandas简介 1.1 什么是Pandas 1.2 Pandas应用 二.Series结构 2.1 Series简介 2.2 基本使用 三.DataFrame结构 3.1 Dat ...

  8. python表格处理实例_python列表格

    三款新功能发布,助力阿里云表格存储再次升级 阿里云表格存储于近期功能再升级,升级后的表格存储支持对DataHub采集的数据进行持久化存储,其Python SDK新增支持Python 3.x,以及最新发 ...

  9. SparkSQL(一):概述

    文章目录 一.Hive 和 SparkSQL 二.SparkSQL 的特点 三.DataFrame 简介 四.DataSet 简介 Spark SQL是Spark用于结构化数据(structured ...

最新文章

  1. 夏天来了,你的数据中心应该跟着热起来
  2. python画圆简单代码-Python 用turtle实现用正方形画圆的例子
  3. Nginx —— 检查配置文件nginx.conf的正确性命令(-t)
  4. Linux rpm软件包管理工具常用命令示例
  5. wxWidgets:wxDataViewTreeCtrl类用法
  6. linux内核字符设备文件的自动创建
  7. 配置php错误导入文件,php 导入文件(逻辑处理)
  8. PostgreSQL 11 preview - Faster partition pruning
  9. LTE:资源调度(5)
  10. 用USRP-LW N210搭建软件雷达系统
  11. 洞烛幽微系列 之 梯度 散度 旋度
  12. 本科毕业论文外文文献翻译怎么找?
  13. python-指数分布介绍(scipy.stats.expon)
  14. linux默认的超级用户是,Linux操作系统默认的超级用户是()
  15. ffmpeg重采样中swr_convert和swr_get_out_samples的用法
  16. STM32与Flash AT45DB321D之间读写数据
  17. mysql 安装与连接数据库_Mysql 安装、登录以及链接数据库
  18. 2019年机器学习/ 深度学习热门论文集锦
  19. Myeclipse 是如何启动tomcat服务
  20. ImportError: No module named lmdb

热门文章

  1. 小清新网格背景教师公开课PPT模板
  2. Ubuntu16.04安装ROS教程
  3. import obspy报错‘numpy.int64‘ object has no attribute ‘split‘`
  4. Freeline使用攻略
  5. C++ iterater迭代器
  6. android多线程下载3
  7. 终于看完了马未都说家具收藏,很好看
  8. 使用Matlab实现AHP算法
  9. vbs简明教程(转载)
  10. 模仿qq客户端应用源码且带安装包