Spark的代码是在GitHub上托管的,如果想看源码,可以访问:GitHub。至于SparkStreaming等功能,有个测试案例的包,

sparkStreaming的案例地址:https://github.com/apache/spark/blob/master/examples/src/main/scala/org/apache/spark/examples/streaming

我们以NetworkWordCount.scala  为例进行测试。注意:我们假设你已经安装并配置好了spark环境,并在服务器上安装了瑞士军刀,即nc。

1、在当前窗口(A窗口)开启一个nc,端口号使用9999

nc -lk 9999

2、重新打开一个窗口(B窗口),通过spark-submit 提交spark作业

spark-submit --master local[*] --class org.apache.spark.examples.streaming.NetworkWordCount --name wordCount /opt/spark/examples/jars/spark-examples_2.11-2.0.1.jar localhost 9999

注:

1)、--master local[*] 是指通过本地方式提交作业,*是尽可能多的使用线程数,可以改为数字,但是需要大于1,因为master需要一个线程,

而sparkStreaming的每一个Receivers都需要一个线程,所以最少要两个线程。

2)、--class 为启动类,--name 为作业名字,再后面是jar文件,

3)、localhost 9999 为参数,具体可以参考NetworkWordCount.scala中的代码,是指nc的端口和ip地址

3、在窗口A输入一行文本后,可以看到窗口B会统计单词频率

A窗口输入:

B窗口可以看到

  

转载于:https://www.cnblogs.com/chenyongxiang/p/8728463.html

通过spark-submit,本地测试SparkStreaming相关推荐

  1. 【原创】大数据基础之Spark(1)Spark Submit即Spark任务提交过程

    Spark2.1.1 一 Spark Submit本地解析 1.1 现象 提交命令: spark-submit --master local[10] --driver-memory 30g --cla ...

  2. 50.Spark大型电商项目-用户访问session分析-top10热门品类之本地测试

    本篇文章记录用户访问session分析-top10热门品类之本地测试. 在测试的过程中,到很多问题. 问题一:二次排序需要序列化,否则会在程序运行的时候报错. public class Categor ...

  3. spark:开发本地测试的wordcount程序

    1.使用Java开发本地测试的wordcount程序-1 2.使用Scala开发本地测试的wordcount程序-1 测试文件上传: hadoop fs -put wordcount.txt /wor ...

  4. Spark本地测试异常之 System memory 259522560 must be at least 471859200.

    解决Spark本地测试异常之 System memory 259522560 must be at least 471859200 一.异常如下 二.抛出异常原因 三.解决办法 一.异常如下 java ...

  5. Spark读取本地文件和HDFS文件

    前言 旁边的实习生又一脸懵逼了:Spark有bug,明明我本地/data目录下有test.txt文件,但运行就报错: Caused by: java.io.FileNotFoundException: ...

  6. Spark On Yarn --jars/spark.yarn.jars 踩坑 与 提升spark submit速度

    一.引言 Spark submit 可以选择 --jars 传入本地的jar也可以 --jars 传入HDFS的jar包,经过半下午的实验,终于搞清了两者的关系以及 spark.yarn.jars 和 ...

  7. spark submit提交任务一直卡在ACCEPTED状态

    千辛万苦写好代码,打成jar包,spark submit提交运行到yarn 然后默默打开yarn界面查看运行的任务,但是半天不见任务名称,这可就奇了怪了 查看 yarn application --l ...

  8. spark submit参数及调优

    spark submit参数及调优 原文地址 spark submit参数介绍 你可以通过spark-submit --help或者spark-shell --help来查看这些参数. 使用格式:  ...

  9. spark submit参数及调优(转载)

    spark submit参数介绍 你可以通过spark-submit --help或者spark-shell --help来查看这些参数. 使用格式:  ./bin/spark-submit \--c ...

最新文章

  1. BC#65 T5 ZYB's Prime
  2. [POJ 3270]Cow Sorting
  3. python替代hadoop_Python连接Hadoop数据中遇到的各种坑(汇总)
  4. linux端口爆破软件,Linux网络安全:端口扫描软件 nmap
  5. C语言2020年作业,2020年哈尔滨工业大学C语言程序设计精髓 第七周编程题作业
  6. 基于xilinx FPGA实现LZW压缩算法
  7. Linux基础(13)文本查找利器find的使用方法
  8. 苹果修复老旧设备中的两个 iOS 0day
  9. Android获取手机型号
  10. Flutter中,idevice_id和iproxy无法打开的问题(真机调试卡在启动页进不去)
  11. python如何设置清华镜像源
  12. 实现销售合同结存条件
  13. Android BLE GATT CONN LMP TIMEOUT 0x22
  14. springCloud 授权服务器
  15. 电子产品加拿大IC认证(ISED)指南
  16. 解决Vs2015+Qt+obs studio配置软件环境问题汇总
  17. DP(动态规划)基础
  18. 什么是Spring的依赖注入?
  19. wangEditor富文本编辑器获取html内容
  20. 欧尼酱讲JVM(23)——垃圾收集器

热门文章

  1. 2018年第九届蓝桥杯C/C++ C组国赛 —— 第二题:最大乘积
  2. TMS320F28335项目开发记录9_28335之中断系统
  3. 圈钱跑路 ERC20 Token 合约代码分析
  4. 一个菜鸟从高一到大二的作品整理
  5. Codeforces 986A. Fair(对物品bfs暴力求解)
  6. IA-32 Intel手册学习笔记(三)任务切换
  7. 关于界面软件测试点,电子商务网站--界面测试的测试点
  8. 一个程序来比较cuda/c在GPU/CPU的运行效率
  9. 机器学习资料整理,收藏了不后悔!
  10. HDU - 6661 Acesrc and String Theory (后缀数组)