前言

spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置
详细算法的使用请点击我主页列表查看

版本

jar 版本 说明
spark 3.0.1
scala 2.12 这个版本注意和spark版本对应,只是为了引jar包
springboot版本 2.3.2.RELEASE

maven

<!-- spark --><dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.12</artifactId><version>${spark.version}</version><exclusions><exclusion><groupId>org.slf4j</groupId><artifactId>slf4j-log4j12</artifactId></exclusion><exclusion><groupId>log4j</groupId><artifactId>log4j</artifactId></exclusion></exclusions></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-mllib_2.12</artifactId><version>${spark.version}</version></dependency><dependency><groupId>org.codehaus.janino</groupId><artifactId>janino</artifactId><version>${janino.version}</version></dependency>

yml

spark:name: spark-web# 我使用的local模式master: local[*]#用于存储mpp输出文件和RDD缓存文件,常配置在SSD等存储设备上,可以通过逗号分隔指定多个目录。local-dir: D://spark-tmp# 内存memory: 2147480000

config

import lombok.Getter;
import lombok.Setter;
import lombok.ToString;
import org.apache.spark.SparkContext;
import org.apache.spark.sql.SparkSession;
import org.springframework.boot.context.properties.ConfigurationProperties;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;/*** spark配置项** @author teler*/
@ToString
@Getter
@Setter
@Configuration
@ConfigurationProperties(prefix = "spark")
public class SparkConfig {private String name;private String master;private String localDir;private String memory;@Beanpublic SparkSession sparkSession() {return SparkSession.builder().appName(name).master(master).config("spark.testing.memory", memory).config("spark.local.dir", localDir).getOrCreate();}
}

java spark的使用和配置相关推荐

  1. spark启动历史服务配置时报错java.net.ConnectException: Connection refused; For more details see: http://wiki.ap

    spark启动历史服务配置时,没报错,然后在运行spark任务时报错: Call From master/ip to master:8020 failed on connection exceptio ...

  2. Spark性能相关参数配置详解

    随着Spark的逐渐成熟完善, 越来越多的可配置参数被添加到Spark中来, 本文试图通过阐述这其中部分参数的工作原理和配置思路, 和大家一起探讨一下如何根据实际场合对Spark进行配置优化. 由于篇 ...

  3. 教程-Spark安装与环境配置

    总第130篇/张俊红 1.Spark介绍 Spark是一种通用的大数据计算框架,是基于RDD(弹性分布式数据集)的一种计算模型.那到底是什么,可能还不是太理解,通俗讲就是可以分布式处理大量极数据的,将 ...

  4. [转]大数据环境搭建步骤详解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安装与配置)

    大数据环境安装和配置(Hadoop2.7.7,Hive2.3.4,Zookeeper3.4.10,Kafka2.1.0,Flume1.8.0,Hbase2.1.1,Spark2.4.0等) 系统说明 ...

  5. Spark 性能相关参数配置详解-压缩与序列化篇

    作者:刘旭晖 Raymond 转载请注明出处 Email:colorant at 163.com BLOG:http://blog.csdn.net/colorant/ 随着Spark的逐渐成熟完善, ...

  6. scala linux 环境配置,LINUX系统下Java和Scala的环境配置

    最近,笔者在研究一个有关"自然语言处理"的项目,在这个项目中,需要我们用Spark进行编程.而Spark内核是由Scala语言开发的,所以在使用Spark之前,我们必须配置好Sca ...

  7. 从零开始学 Java - Spring 集成 Memcached 缓存配置(二)

    Memcached 客户端选择 上一篇文章 从零开始学 Java - Spring 集成 Memcached 缓存配置(一)中我们讲到这篇要谈客户端的选择,在 Java 中一般常用的有三个: Memc ...

  8. win7 64位 安装java jdk1.8 ,修改配置环境变量

    下载jdk1.8,下载地址:http://www.wmzhe.com/soft-30118.html 安装时有两个程序,都安装在同一个目录下.   win7 64位 安装java jdk1.8 ,修改 ...

  9. Java环境的安装与配置

    Java环境的安装与配置 环境:Java8,win10 推荐oracle官网oracle官网https://www.oracle.com/index.html下载JDK进行安装 选择自己需要的版本下载 ...

最新文章

  1. Linux shell编程学习实例与参数分析(一)
  2. 自然语言处理之jieba分词
  3. DOM中Event 对象如何使用
  4. boost::ptr_vector相关的测试程序
  5. [Android] Implementation vs API dependency
  6. python使用spark sql查询impala_如何使用JDBC将Impala表直接加载到Spark?
  7. Mysql 中Sql控制流语句_DCL语句/控制流语句
  8. 系统架构设计师 - 面向服务架构 SOA
  9. jQuery多选插件
  10. 电子支付公司Nuvei支持BTC等近40种加密货币
  11. SAP License:SAP中的文本管理
  12. yolov3从头实现(五)-- yolov3网络块
  13. 程序设计基础(c语言)(第3版)课后习题答案
  14. AutoCAD 版本历史 版本代号
  15. FAT文件系统详解(一)
  16. 无损音频flac转mp3
  17. 手机ram和rom的区别
  18. swing的maven项目打成jar包
  19. 工程经济有何难,思维导图来助阵
  20. python实验总结_python实训总结和体会_python实训心得体会 - CSDN

热门文章

  1. 一起Talk Android吧(第一百八十六回:Android中的AsyncTask机制五)
  2. 艺宁书局-专业经营原版国外电子书
  3. 2008年,永动机启动第四次科技革命
  4. 频遭攻击 索尼无奈关闭多国网站
  5. SAP系统资产年结步骤、以及资产年结错误后处理方式
  6. 《弃子长安》第五章 杀气惊蝉
  7. First-Blood
  8. HTC Android手机刷机详细全教程
  9. 开年纳新|天空卫士家族荣誉谱上再添多名新“成员”
  10. ASEMI整流模块MDA110-16参数,MDA110-16规格