利用 livy 远程提交 spark作业
1. 下载,安装 livy
2. 配置环境变量
export SPARK_HOME=/usr/lib/spark
export HADOOP_CONF_DIR=/etc/hadoop/conf
3.配置主机和端口(可跳过,直接用默认值)
# What host address to start the server on. By default, Livy will bind to all network interfaces. (主机)
livy.server.host = 0.0.0.0
# What port to start the server on.(端口)
livy.server.port = 8998
# Time in milliseconds on how long Livy will wait before timing out an idle session.(超时时长,即session多久未用之后,自动kill掉)livy.server.session.timeout = 1h
这里需要创建logs文件夹
mkdir logs
chmod -R 777 logs
4. 开启livy服务
./bin/livy-server
5.REST Api (以下url均以host:port开头,默认为 localhost:8998)
Returns all the active interactive sessions.返回所有活跃的session
2)POST /sessions
Creates a new interativeScala,Python, or R shell in the cluster. 创建一个session,即新开一个shel
Request Body
name | description | type |
---|---|---|
kind | The session kind (required) | session kind |
proxyUser | User to impersonate when starting the session | string |
conf | Spark configuration properties | Map of key=val |
3)GET /sessions/{sessionId}
Returns the session information. 返回相应session的信息
4)DELETE /sessions/{sessionId}
Kills the Session job.
5) GET /sessions/{sessionId}/statements
返回session的所有statement的信息
6)POST /sessions/{sessionId}/statements
Runs a statement in a session. 即提交一个语句,运行
7) GET /sessions/{sessionId}/statements/{statementId}
获取相应statement的信息
利用 livy 远程提交 spark作业相关推荐
- livy使用样例_黑猴子的家:利用 livy 远程提交 spark作业
livy是cloudera开发的通过REST来连接.管理spark的解决方案,此文记录在使用livy中遇到的一些问题 1.livy的下载 livy安装不多赘述,可以从github上自己build,也可 ...
- 【收藏】使用springboot构建rest api远程提交spark任务
使用springboot构建rest api远程提交spark任务 https://blog.csdn.net/hlp4207/article/details/100831384
- Kettle与Hadoop(九)提交Spark作业
实验目的: 配置Kettle向Spark集群提交作业. 实验环境: Spark History Server: 172.16.1.126 Spark Gateway: 172.16.1.124 172 ...
- spark系列-应用篇之通过livy提交Spark任务
#前言 上一篇使用yarn api的提交spark任务比较麻烦, 这次我们使用livy来提交spark任务.livy的使用十分简单,功能上比yarn api还要强大,支持提交spark代码片断,ses ...
- Spark 作业提交
Spark 作业提交 一.作业打包jar 1.工程目录结构 2.不同运行模式的打包方式 Local模式与Yarn模式不同就在于:Local模式运行时jar包仅在本地存在,而Yarn模式需要在每台从机的 ...
- Spark学习(四) -- Spark作业提交
标签(空格分隔): Spark 作业提交 先回顾一下WordCount的过程: sc.textFile("README.rd").flatMap(line => line.s ...
- Hadoop入门(十二)Intellij IDEA远程向hadoop集群提交mapreduce作业
Intellij IDEA远程向hadoop集群提交mapreduce作业,需要依赖到hadoop的库,hadoop集群的配置信息,还有本地项目的jar包. 一.软件环境 (1)window本地安装h ...
- 利用博客提交作业的程序设计课程实践模式
(本文基于本人近三年来的工作写成,发表于<计算机教育>2014年第18期) 利用博客提交作业的程序设计课程实践模式 贺利坚 卢云宏 (烟台大学 计算机学院,山东 烟台 264005) ...
- 本地提交spark_Spark在Windows下运行,本地提交spark到远程yarn集群
[问题]Spark在windows能跑集群模式吗? 我认为是可以的,但是需要详细了解cmd命令行的写法.目前win下跑spark的单机模式是没有问题的. [关键点]spark启动机制容易被window ...
最新文章
- .NET笔试题集(五)
- Android 网络通信框架Volley简介(Google IO 2013)
- MySQL主从复制从机验证报错:ERROR 3021(HY000):this operation cannot be performed with a
- 看下completablefuture(暂时没看完)
- 企业一般用php还是js,网站开发用php还是js
- centos5.9 mysql_CentOS 5.9系统服务器使用yum安装Apache+PHP+MySQL环境
- Caffe学习记录(十一) ICNet分割网络学习
- ElasticSearch里面关于日期的存储方式,解决差8个小时
- vfp报表纸张设置_VFP 9.0中实现多种自定义纸张格式的报表打印
- 大型情感剧集Selenium:1_介绍 #华为云·寻找黑马程序员#
- OpenGL秒安装及显示
- 201632位matlab下载_Matlab 2016a下载
- Eclipse中打开文件时单击和双击的设置
- 盘点免费好用的5款思维导图工具
- 树莓派/arm设备上安装火狐Firefox浏览器
- [内附完整源码和文档] 基于JSP网上招聘系统的设计与实现
- vue路由传参 params传参不能传对象
- 更换ruby源----RubyGems 镜像 - 淘宝网
- idea下载数据库驱动太慢?
- iOS开发:加载、滑动翻阅大量图片解决方案
热门文章
- 22行代码AC——习题5-6 对称轴(Symmetry,UVa1595)——解题报告
- NumpyPandas的区别和联系
- Spring中BeanPostProcessor 执行过程
- HarmonyOS应用开发——使用HUAWEI DevEco Studio创建第一个程序 HELLO WORLD!
- python课本第二章答案_《Python自然语言处理》答案第一、二章
- 嵌入式linux开发考试题目,练一练!3道经典嵌入式Linux面试题,答案在文末。
- linux抓post命令,Linux 使用curl发起post请求的4个常用方式
- Java的后缀分类_JAVA根据文件后缀名分类文件,并且将文件复制到不同的文件夹,求这段代码的注释...
- oracle 9i sql_id,Oracle9i增添 wm_concat函数(转)
- 镭威视监控怎么复位_三大原因导致海康威视、大华股份近期连续暴跌