idea 创建spark项目

File => new project => maven => next =>next …

项目结构

pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>com.spark</groupId><artifactId>sparkDemo</artifactId><version>1.0-SNAPSHOT</version><properties><scala.version>2.11.8</scala.version><spark.version>2.1.1</spark.version></properties><dependencies><dependency><groupId>org.scala-lang</groupId><artifactId>scala-library</artifactId><version>${scala.version}</version><!--<scope>provided</scope>--> <!--provided maven打包时 该jar包不加入打包里,如果本地运行把该scope去掉 ,集群加上--></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.11</artifactId><version>${spark.version}</version><!--<scope>provided</scope>--></dependency></dependencies><build><plugins><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><version>3.6.1</version><configuration><source>1.8</source><target>1.8</target></configuration></plugin><plugin><groupId>org.scala-tools</groupId><artifactId>maven-scala-plugin</artifactId><executions><execution><goals><goal>compile</goal><goal>testCompile</goal></goals></execution></executions><configuration><scalaVersion>${scala.version}</scalaVersion><args><arg>-target:jvm-1.8</arg></args></configuration></plugin><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-assembly-plugin</artifactId><version>3.0.0</version><executions><execution><id>make-assembly</id><phase>package</phase><goals><goal>single</goal></goals></execution></executions><configuration><archive><manifest><mainClass>com.spark.demo.WordCount</mainClass></manifest></archive><descriptorRefs><descriptorRef>jar-with-dependencies</descriptorRef></descriptorRefs></configuration></plugin></plugins></build>
</project>

<scope>provided</scope> <!--provided maven打包时 该jar包不加入打包里,如果本地运行把该scope去掉 ,集群加上-->本地运行provided 会显示 java.lang.NoClassDefFoundError:

代码

package com.spark.demoimport org.apache.spark.{SparkConf, SparkContext}object WordCount extends App {// 集群上打包val sprakConf = new SparkConf().setAppName("WordCount")//本地local运行//val sprakConf = new SparkConf().setMaster("local[3]").setAppName("WordCount")// 远程调试
//  val sprakConf = new SparkConf().setMaster("spark://master:7077").setAppName("WordCount")
//                     .setJars(List("D:\\work\\IdeaProjects\\sparkDemo\\target\\sparkDemo-1.0-SNAPSHOT-jar-with-dependencies.jar"))
//                     .setIfMissing("spark.driver.host","192.168.98.1")val sparkContext = new SparkContext(sprakConf)val file = sparkContext.textFile("hdfs://master:8020/readme.txt")val words = file.flatMap(_.split(" "))val wordsTuple = words.map((_,1))wordsTuple.reduceByKey(_+_).saveAsTextFile("hdfs://master:8020/out")sparkContext.stop()
}

打包

集群提交
bin/spark-submit --class com.spark.demo.WordCount --master spark://master:7077 /home/admin/sparkDemo.jar

idea 创建spark项目相关推荐

  1. spark java pom.xml_使用maven方式创建spark项目(配置pom.xml文件)

    创建maven项目后,在pom.xml文件中添加如下配置项: 1.8 1.8 2.10.5 1.6.2 2.6.4 UTF-8 org.apache.spark spark-core_2.11 ${s ...

  2. idea创建python spark项目的步骤_Spark入门(二)--如何用Idea运行我们的Spark项目

    用Idea搭建我们的Spark环境 用IDEA搭建我们的环境有很多好处,其中最大的好处,就是我们甚至可以在工程当中直接运行.调试我们的代码,在控制台输出我们的结果.或者可以逐行跟踪代码,了解spark ...

  3. JavaWeb(十)——jetty服务器、创建jsp项目、servlet生命周期及url的匹配规则

    文章目录 1. jetty服务器的下载与安装 1.1 jetty简介 1.2 jetty的下载与安装 2. idea创建jsp项目 3. idea给jsp项目导入jar包 4. 编写第一个servle ...

  4. spark项目实战:电商分析平台之各个范围Session步长、访问时长占比统计(需求一)

    spark项目实战:电商分析平台之各个范围Session步长.访问时长占比统计(需求一) 项目基本信息,架构,需要一览 各个范围Session步长.访问时长占比统计概述 各个范围Session步长.访 ...

  5. scala java maven项目_IntelliJ IDEA下Maven创建Scala项目的方法步骤

    环境:IntelliJ IDEA 版本:Spark-2.2.1 Scala-2.11.0 利用 Maven 第一次创建 Scala 项目也遇到了许多坑 创建一个 Scala 的 WordCount 程 ...

  6. 设置maven 参数调休_IDEA 使用 Maven构建Spark项目

    上一篇讲了普通构建spark项目 这次分享用Maven构建Spark项目,中间遇到了很多坑!其根本原因是Scala 与 Spark的版本不一致! 本次环境: Java1.8 Scala 2.11.8 ...

  7. IDEA本地运行Spark项目[演示自定义分区器]并查看HDFS结果文件

    文章目录 一.提出问题 二.解决问题 (一)添加IP到主机名的映射 (二)在本地准备Spark库文件 (三)在IDEA里创建Scala项目 (四)添加Spark库文件到项目 (五)创建自定义分区器 ( ...

  8. Spark项目模拟——航班飞行网图分析

    文章目录 Spark项目模拟--航班飞行网图分析 需求描述 数据准备 需求思路整理 代码实现 总结 机场数量: 航线数量: 最大的边属性: 哪个机场到达航班最多: 找出最重要的飞行航线: 找出最便宜的 ...

  9. Spark项目实战:大数据实时流处理日志(非常详细)

    实战概览 一.实战内容 二.大数据实时流处理分析系统简介 1.需求 2.背景及架构 三.实战所用到的架构和涉及的知识 1.后端架构 2.前端框架 四.项目实战 1.后端开发实战 1.构建项目 2.引入 ...

最新文章

  1. 威纶通宏开机后使用初始化宏指令_【操作系统】我们按下电脑开机键的背后发生了什么?...
  2. AI芯片下一步怎么走?“从软件中来,到软件中去”
  3. matlab 计算程序运行的时间
  4. bzoj4472: [Jsoi2015]salesman(树形dp)
  5. BMP图像文件格式分析附带图解
  6. 我们出了套西游记考题,可以保证吴承恩不及格
  7. python苦逼_自学Python编程的第六天(最后代码有更好的请告诉我)----------来自苦逼的转行人...
  8. 码说 | 并查集(以HDU1232为例)
  9. 907计算机专业基础与408相比,2018年北京大学信息科学技术学院907计算机专业基础之计算机操作系统考研强化五套模拟题...
  10. Knockout.js 初探
  11. 厦门大学计算机专业录取分数线2019,厦门大学录取分数线2019年各省及各专业分数线...
  12. 8 NoSQL数据库有哪些?
  13. 语法糖 Syntactic sugar: 复杂代码的等价简洁替代
  14. 中南大学计算机学院闭委,2019-2020计算机学院第一学期学委会议顺利召开
  15. linux的systemctl命令介绍
  16. Vue实现3D全景图,photo-sphere-viewer
  17. 全链路稳定性背后的数字化支撑:阿里巴巴鹰眼技术解密
  18. 在线客服系统IM即时通讯聊天源码
  19. 电子书之当当在线图书
  20. 微信小程序导入Vant Weapp组件库

热门文章

  1. 页面之间数据调转传输
  2. UnityGUI简介
  3. 游戏开发经验之开源游戏盈利的十个有效途径
  4. 看JTS源码,感受Java优化编程
  5. mysql 从第几个字符串开始截取_Mysql字符串截取函数SUBSTRING的用法说明
  6. java 读取二进制文件_用Java读取二进制文件
  7. torch.nn.modules.activation.ReLU is not a Module subclass
  8. oracle purge作业,Oracle purge用法介绍
  9. 计算机怎样检查视力,电脑视力表同样测视力 测试方法要正确
  10. 前景理论、灰靶决策的直觉模糊多属性决策方法及matlab应用