Spark SQL 最简单例子
2019独角兽企业重金招聘Python工程师标准>>>
Spark SQL 最简单例子 博客分类: spark
<dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.10</artifactId><version>2.1.0</version></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-sql_2.10</artifactId><version>2.1.0</version></dependency>
import java.io.Serializable;
import java.util.Arrays;import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SQLContext;
import org.apache.spark.sql.SparkSession;public class SparkSqlTest {public static class Person implements Serializable {private static final long serialVersionUID = -6259413972682177507L;private String name;private int age;public Person(String name, int age) {this.name = name;this.age = age;}public String toString() {return name + ": " + age;}public String getName() {return name;}public void setName(String name) {this.name = name;}public int getAge() {return age;}public void setAge(int age) {this.age = age;}}public static void main(String[] args) {SparkConf conf = new SparkConf().setAppName("Test").setMaster("local");JavaSparkContext sc = new JavaSparkContext(conf);SparkSession spark = SparkSession.builder().appName("Test").getOrCreate();JavaRDD<String> input = sc.parallelize(Arrays.asList("abc,1", "test,2"));JavaRDD<Person> persons = input.map(s -> s.split(",")).map(s -> new Person(s[0], Integer.parseInt(s[1])));//[abc: 1, test: 2]System.out.println(persons.collect());Dataset<Row> df = spark.createDataFrame(persons, Person.class);/*+---+----+|age|name|+---+----+| 1| abc|| 2|test|+---+----+*/df.show();/*root|-- age: integer (nullable = false)|-- name: string (nullable = true)*/df.printSchema();SQLContext sql = new SQLContext(spark);sql.registerDataFrameAsTable(df, "person");/*+---+----+|age|name|+---+----+| 2|test|+---+----+*/sql.sql("SELECT * FROM person WHERE age>1").show();sc.close();}}
转载于:https://my.oschina.net/xiaominmin/blog/1598473
Spark SQL 最简单例子相关推荐
- spark sql的简单操作
测试数据 sparkStu.text zhangxs 24 chenxy wangYr 21 teacher wangx 26 teacher sparksql { "name": ...
- C++连接SQL的简单例子(win 和 linux)
window上的SQL server2008例子: // ConSQL.cpp : 定义控制台应用程序的入口点. #include "stdafx.h" #include < ...
- spark sql 上个月_Spark学习之路 (十八)SparkSQL简单使用
一.SparkSQL的进化之路 1.0以前: Shark 1.1.x开始: SparkSQL(只是测试性的) SQL 1.3.x: SparkSQL(正式版本)+Dataframe 1.5.x: S ...
- SQL左连接,右连接,内连接简单例子
SQL左连接,右连接,内连接简单例子 左连接:以左表为主 select column_a , column_b from table_a left join table_b on table_a.id ...
- Sql Create Function简单例子
1.Create Function简单例子 --创建函数(返回varchar类型的值) create function test(@Num varchar(20))--@Num 参数 returns ...
- 14 ,spark sql 例子 :四张表数据( student,course,score,teacher ),建表
1 ,数据准备 : 4 张表 学生表 ( student ) : ( sid , sname , ssex , sbirth , sclazz ) 学号 ,姓名 ,性别 ,生日 ,班级 1 孙福龙 m ...
- Adaptive Execution让Spark SQL更高效更好用
本文所述内容均基于 2018年9月17日 Spark 最新 Spark Release 2.3.1 版本,以及截止到 2018年10月21日 Adaptive Execution 最新开发代码.自动设 ...
- Spark SQL玩起来
标签(空格分隔): Spark [toc] 前言 Spark SQL的介绍只包含官方文档的Getting Started.DataSource.Performance Tuning和Distribut ...
- Spark性能优化 -- Spark SQL、DataFrame、Dataset
本文将详细分析和总结Spark SQL及其DataFrame.Dataset的相关原理和优化过程. Spark SQL简介 Spark SQL是Spark中 具有 大规模关系查询的结构化数据处理 模块 ...
最新文章
- vc++中几个常用的数学函数
- FPGA之道(34)Verilog初始化与操作符号
- php artisan 命令列表
- java文件流 m.jb51.net_Linux指令范例速查手册(第2版)PDF 下载
- redis连不上java,java使用jedis连不上linux上redis服务
- 软件:推荐5款职场人必备的效率神器APP
- Ethercat解析(一)之获取、编译、安装(Ubuntu14.04)
- django模板-通过a标签生成链接并跳转
- “我创业成功的十大秘诀”
- 有没有可以干一辈子的工作?
- python处理grd格式文件_python基础
- 神州租车,致力于提供更加便利的出行方式
- str.charAt(0);
- div overflow属性
- C 语言到底能做什么?What can C do?
- 更新被拒绝,因为远程仓库包含您本地尚不存在的提交
- Saas发展史常用架构
- 旋转编码器EC11调试心得
- ORACLE 复制表
- 微信小程序的轮播图宽高
热门文章
- 畅捷通t+标准版操作手册_外网IP访问畅捷通T+教程
- 页面转发后文本显示???_使用Divi的滑动动画显示过程的进度
- matlab中ismember_ismember matlab
- http路径转file会变成反斜杠_PHP session反序列化漏洞
- java中的排序算法——归并排序
- java序列化的作用
- 自定义控件:旋转菜单
- 如何查看别人(自己)电脑最近的浏览记录
- 哪一个不是html5新增的语义化标记元素,东师19春《HTML5开发基础与应用》作业考核【标准答案】...
- php 单例模式 序列化,php设计模式(二)单例模式