问底大数据NoSQLSparkCassandra

摘要:Spark,强大的迭代计算框架,在内存数据计算上无可匹敌。Cassandra,优异的列式存储NoSQL,在写入操作上难逢敌手。自本期《问底》,许鹏将结合实际实践,带大家打造一个由Spark和Cassandra组成的大数据分析平台。

3. 利用Spark强化Cassandra的实时分析功能

在Cassandra数据模型一节中,讲述了通过数据冗余和反范式设计来达到快速高效的查询效果。

但如果对存储于cassandra数据要做更为复杂的实时性分析处理的话,使用原有的技巧无法实现目标,那么可以通过与Spark相结合,利用Spark这样一个快速高效的分析平台来实现复杂的数据分析功能。

 3.1 整体架构

利用spark-cassandra-connector连接Cassandra,读取存储在Cassandra中的数据,然后就可以使用Spark RDD中的支持API来对数据进行各种操作。

3.2 Spark-cassandra-connector

在Spark中利用datastax提供的spark-cassandra-connector来连接Cassandra数据库是最为简单的一种方式。

目前spark-cassandra-connector 1.1.0-alpha3支持的Spark和Cassandra版本如下

  • Spark 1.1
  • Cassandra 2.x

如果是用sbt来管理scala程序的话,只需要在build.sbt中加入如下内容即可由sbt自动下载所需要的spark-cassandra-connector驱动

datastax.spark" %% "spark-cassandra-connector" % "1.1.0-alpha3" withSources() withJavadoc()

由于有的时候在github.com/datastax/spark-cassandra-connector官方站点上的文档不一定准确,要想确切知道有哪些版本可以由sbt自动下载的话,可以通过maven的仓库来查看,具体查看地址是

http://mvnrepository.com/artifact/com.datastax.spark

3.2.1 driver的配置

使用spark-cassandra-connector的时候需要编辑一些参数,比如指定Cassandra数据库的地址,每次最多获取多少行,一个线程总共获取多少行等。

这些参数即可以硬性的写死在程序中,如

val conf = new SparkConf()
conf.set(“spark.cassandra.connection.host”, cassandra_server_addr)
conf.set(“spark.cassandra.auth.username”, “cassandra”)
conf.set(“spark.cassandra.auth.password”,”cassandra”)

硬编码的方式是发动不灵活,其实这些配置参数完全可以写在spark-defaults.conf中,那么上述的配置可以写成

spark.cassandra.connection.host 192.168.6.201
spark.cassandra.auth.username cassandra
spark.cassandra.auth.password cassandra

3.2.2 依赖包的版本问题

sbt会自动下载spark-cassandra-connector所依赖的库文件,这在程序编译阶段不会呈现出任何问题。

但在执行阶段问题就会体现出来,即程序除了spark-cassandra-connector之外还要依赖哪些文件呢,这个就需要重新回到maven版本库中去看spark-cassandra-connector的依赖了。

总体上来说spark-cassandra-connector严重依赖于这几个库

  • cassandra-clientutil
  • cassandra-driver-core
  • cassandra-all

另外一种解决的办法就是查看$HOME/.ivy2目录下这些库的最新版本是多少

find ~/.ivy2 -name “cassandra*.jar”

取最大的版本号即可,就alpha3而言,其所依赖的库及其版本如下

com.datastax.spark/spark-cassandra-connector_2.10/jars/spark-cassandra-connector_2.10-1.1.0-alpha3.jar
org.apache.cassandra/cassandra-thrift/jars/cassandra-thrift-2.1.0.jar
org.apache.thrift/libthrift/jars/libthrift-0.9.1.jar
org.apache.cassandra/cassandra-clientutil/jars/cassandra-clientutil-2.1.0.jar
com.datastax.cassandra/cassandra-driver-core/jars/cassandra-driver-core-2.1.0.jar
io.netty/netty/bundles/netty-3.9.0.Final.jar
com.codahale.metrics/metrics-core/bundles/metrics-core-3.0.2.jar
org.slf4j/slf4j-api/jars/slf4j-api-1.7.7.jar
org.apache.commons/commons-lang3/jars/commons-lang3-3.3.2.jar
org.joda/joda-convert/jars/joda-convert-1.2.jar
joda-time/joda-time/jars/joda-time-2.3.jar
org.apache.cassandra/cassandra-all/jars/cassandra-all-2.1.0.jar
org.slf4j/slf4j-log4j12/jars/slf4j-log4j12-1.7.2.jar

3.3 Spark的配置

程序顺利通过编译之后,准备在Spark上进行测试,那么需要做如下配置

 3.3.1 spark-default.env

Spark-defaults.conf的作用范围要搞清楚,编辑driver所在机器上的spark-defaults.conf,该文件会影响到driver所提交运行的application,及专门为该application提供计算资源的executor的启动参数

只需要在driver所在的机器上编辑该文件,不需要在worker或master所运行的机器上编辑该文件

举个实际的例子

spark.executor.extraJavaOptions     -XX:MaxPermSize=896m
spark.executor.memory          5g
spark.serializer        org.apache.spark.serializer.KryoSerializer
spark.cores.max     32
spark.shuffle.manager   SORT
spark.driver.memory 2g

上述配置表示为该application提供计算资源的executor启动时, heap memory需要有5g。

这里需要引起注意的是,如果worker在加入cluster的时候,申明自己所在的机器只有4g内存,那么为上述的application分配executor是,该worker不能提供任何资源,因为4g<5g,无法满足最低的资源需求。

3.3.2 spark-env.sh

Spark-env.sh中最主要的是指定ip地址,如果运行的是master,就需要指定SPARK_MASTER_IP,如果准备运行driver或worker就需要指定SPARK_LOCAL_IP,要和本机的IP地址一致,否则启动不了。

配置举例如下

export SPARK_MASTER_IP=127.0.0.1
export SPARK_LOCAL_IP=127.0.0.1

3.3.3 启动Spark集群

第一步启动master

<span style="color:#333333">$SPARK_HOME/sbin/start-master.sh</span>

第二步启动worker

$SPARK_HOME/bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077

将master替换成MASTER实际运行的ip地址

如果想在一台机器上运行多个worker(主要是用于测试目的),那么在启动第二个及后面的worker时需要指定—webui-port的内容,否则会报端口已经被占用的错误,启动第二个用的是8083,第三个就用8084,依此类推。

$SPARK_HOME/bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077–webui-port 8083

这种启动worker的方式只是为了测试是启动方便,正规的方式是用$SPARK_HOME/sbin/start-slaves.sh来启动多个worker,由于涉及到ssh的配置,比较麻烦,我这是图简单的办法。

用$SPARK_HOME/sbin/start-slave.sh来启动worker时有一个默认的前提,即在每台机器上$SPARK_HOME必须在同一个目录。

注意:

使用相同的用户名和用户组来启动Master和Worker,否则Executor在启动后会报连接无法建立的错误。

我在实际的使用当中,遇到”no route to host”的错误信息,起初还是认为网络没有配置好,后来网络原因排查之后,忽然意识到有可能使用了不同的用户名和用户组,使用相同的用户名/用户组之后,问题消失。

3.3.4 Spark-submit

spark集群运行正常之后,接下来的问题就是提交application到集群运行了。

Spark-submit用于Spark application的提交和运行,在使用这个指令的时候最大的困惑就是如何指定应用所需要的依赖包。

首先查看一下spark-submit的帮助文件

$SPARK_HOME/bin/submit --help

有几个选项可以用来指定所依赖的库,分别为

  • --driver-class-path driver所依赖的包,多个包之间用冒号(:)分割
  • --jars   driver和executor都需要的包,多个包之间用逗号(,)分割

为了简单起见,就通过—jars来指定依赖,运行指令如下

$SPARK_HOME/bin/spark-submit –class 应用程序的类名 \
--master spark://master:7077 \
--jars 依赖的库文件 \
spark应用程序的jar包

3.3.5 RDD函数使用的一些问题

collect

如果数据集特别大,不要贸然使用collect,因为collect会将计算结果统统的收集返回到driver节点,这样非常容易导致driver结点内存不足,程序退出

repartition

在所能提供的core数目不变的前提下,数据集的分区数目越大,意味着计算一轮所花的时间越多,因为中间的通讯成本较大,而数据集的分区越小,通信开销小而导致计算所花的时间越短,但数据分区越小意味着内存压力越大。

假设为每个spark application提供的最大core数目是32,那么将partition number设置为core number的两到三倍会比较合适,即parition number为64~96。

/tmp目录问题

由于Spark在计算的时候会将中间结果存储到/tmp目录,而目前linux又都支持tmpfs,其实说白了就是将/tmp目录挂载到内存当中。

那么这里就存在一个问题,中间结果过多导致/tmp目录写满而出现如下错误

No Space Left on the device

解决办法就是针对tmp目录不启用tmpfs,修改/etc/fstab,如果是archlinux,仅修改/etc/fstab是不够的,还需要执行如下指令:

systemctl mask tmp.mount

3.4 Cassandra的配置优化

3.4.1 表结构设计

Cassandra表结构设计的一个重要原则是先搞清楚要对存储的数据做哪些操作,然后才开始设计表结构。如:

  1. 只对表进行添加,查询操作
  2. 对表需要进行添加,修改,查询
  3. 对表进行添加和修改操作

一般来说,针对Cassandra中某张具体的表进行“添加,修改,查询”并不是一个好的选择,这当中会涉及到效率及一致性等诸多问题。

Cassandra比较适合于添加,查询这种操作模式。在这种模式下,需要先搞清楚要做哪些查询然后再来定义表结构。

加深对Cassandra中primary key及其变种的理解有利于设计出高效查询的表结构。

create test ( k int, v int , primary key(k,v))

上述例子中primary key由(k,v)组成,其中k是partition key,而v是clustering columns,如果k相同,那么这些记录在物理存储上其实是存储在同一行中,即Cassandra中常会提及的wide rows.

有了这个基础之后,就可以进行范围查询了

select * from test where k = ? and v > ? and v < ?

当然也可以对k进行范围查询,不过要加token才行,但一般这样的范围查询结果并不是我们想到的

select * from test where token(k) > ? and token(k) < ?

Cassandra中针对二级索引是不支持范围查询的,一切的一切都在主键里打主意。

3.4.2 参数设置

Cassandra的配置参数项很多,对于新手来说主要集中于对这两个文件中配置项的理解。

  1. cassandra.yaml   Cassandra系统的运行参数
  2. cassandra-env.sh  JVM运行参数

在cassandra-env.sh中针对JVM的设置

JVM_OPTS="$JVM_OPTS -XX:+UseParNewGC"
JVM_OPTS="$JVM_OPTS -XX:+UseConcMarkSweepGC"
JVM_OPTS="$JVM_OPTS -XX:+CMSParallelRemarkEnabled"
JVM_OPTS="$JVM_OPTS -XX:SurvivorRatio=8"
JVM_OPTS="$JVM_OPTS -XX:MaxTenuringThreshold=1"
JVM_OPTS="$JVM_OPTS -XX:CMSInitiatingOccupancyFraction=80"
JVM_OPTS="$JVM_OPTS -XX:+UseCMSInitiatingOccupancyOnly"
JVM_OPTS="$JVM_OPTS -XX:+UseTLAB"
JVM_OPTS="$JVM_OPTS -XX:ParallelCMSThreads=1"
JVM_OPTS="$JVM_OPTS -XX:+CMSIncrementalMode"
JVM_OPTS="$JVM_OPTS -XX:+CMSIncrementalPacing"
JVM_OPTS="$JVM_OPTS -XX:CMSIncrementalDutyCycleMin=0"
JVM_OPTS="$JVM_OPTS -XX:CMSIncrementalDutyCycle=10"

如果nodetool无法连接到Cassandra的话,在cassandra-env.sh中添加如下内容

JVM_OPTS="$JVM_OPTS -Djava.rmi.server.hostname=ipaddress_of_cassandra"

在cassandra.yaml中,注意memtable_total_space_in_mb的设置,不要将该值设的特别大。将其配置成为JVM HEAP的1/4会是一个比较好的选择。如果该值设置太大,会导致不停的FULL GC,那么在这种情况下Cassandra基本就不可用了。

3.4.3 nodetool使用

Cassandra在运行期间可以通过nodetool来看内部的一些运行情况。

如看一下读取的完成情况

nodetool -hcassandra_server_address tpstats

检查整个cluster的状态

nodetool -hcassandra_server_address status

检查数据库中每个表的数据有多少

nodetool -hcassandra_server_address cfstats

【问底】许鹏:使用Spark+Cassandra打造高性能数据分析平台(一)相关推荐

  1. 基于Hadoop和Spark体系的大数据分析平台构建

    谢谢分享! 转载:http://www.sohu.com/a/249271561_481409 随着大数据.人工智能等技术的快速发展,企业对大数据平台的需求越来越强烈,通过大数据分析技术为企业提供经营 ...

  2. Swoole入门到实战打造高性能赛事直播平台(完整版)

    Swoole入门到实战打造高性能赛事直播平台(技术分享交流) 下载地址:https://download.csdn.net/download/lxw1844912514/11451621

  3. 面对海量IoT设备,如何打造高性能物联网平台接入层?

    IoT物联网平台的服务器需要管理海量设备的接入,并且接收来自设备的海量数据的输入,那么服务器要怎么应对这样的挑战呢? IoT设备一般是通过MQTT 协议接入云平台的,那么设备接入的服务器就是 MQTT ...

  4. 达摩院 2020 预测:模块化降低芯片设计门槛 | 问底中国 IT 技术演进

    作者 | 伍杏玲 出品 | CSDN(ID:CSDNnews) 如今我们生活处处离不开芯片技术:手机.电脑.家电.火车.机器人--可以说芯片是信息产业的"心".其实早在2010年, ...

  5. 逃离泄露事件,阿里云安全默认防御大揭秘 | 问底中国 IT 技术演进

    作者 | 黄晓堃 阿里云安全工程师 致谢 | 吴凡 阿里云高级安全工程师,郭伟博 阿里云高级安全工程师 责编 | 屠敏 出品 | CSDN(ID:CSDNnews) 随着越来越多企业上云,我们深刻体会 ...

  6. 独家揭秘阿里自研飞天操作系统洛神平台如何支撑起 2684 亿全球大促!| 问底中国 IT 技术演进...

    作者 | 宗志刚 阿里云资深技术专家 责编 | 屠敏 出品 | CSDN(ID:CSDNnews) 2019年双11当天总成交额2684亿,交易峰值54.4万笔/秒,成交量背后是单日970PB的数据处 ...

  7. 2684 亿背后的虚拟化技术:双 11 All on 神龙 | 问底中国 IT 技术演进

    作者 | 阿里云神龙团队 杨航.姚捷 在平稳度过2019天猫双11流量峰值后,阿里巴巴正式宣布,双11核心系统已100%跑在阿里云上.中国唯一自研的飞天云操作系统,成功扛住全球最大规模的流量洪峰! 零 ...

  8. canoco5冗余分析步骤_打造高性能的大数据分析平台

    大数据时代,大数据的应用与挖掘,大数据的分析和决策,大数据在经济社会的运行轨道上发挥着愈来愈重要的作用.对于大数据分析,现在好多互联网金融公司和传统的商业银行.证券基金公司都非常看重.个个都想在大数据 ...

  9. 如何打造高性能大数据分析平台

    大数据分析系统作为一个关键性的系统在各个公司迅速崛起.但是这种海量规模的数据带来了前所未有的性能挑战.同时,如果大数据分析系统无法在第一时间为运营决策提供关键数据,那么这样的大数据分析系统一文不值.本 ...

  10. 阿里云安全掌门人肖力:企业上云,如何保证安全?| 问底中国 IT 技术演进

    受访者 | 肖力 采访者 | 伍杏玲 出品 | CSDN(ID:CSDNnews) 近日,国家互联网应急中心发布<2019 年上半年我国互联网网络安全态势>,报告显示在 2019 年上半年 ...

最新文章

  1. 商汤及联合实验室入选论文重点解读 | ECCV 2018
  2. Verilog 中的 function
  3. 【Java】IO Stream详细解读
  4. postgresql - mac 启动 关闭 postgresql
  5. 不积小流,何以成江海。。。积累
  6. PHP常量详解:define和const的区别
  7. JS编写人物行走动画
  8. 微信 支付 h5 开发 使用 best-pay-sdk
  9. BeyondCompare4破解最佳实践
  10. 数据血缘图谱升级方案设计与实现
  11. Unity的四种坐标系
  12. Android imageview 双击放大缩小手势放大缩小自由滑动
  13. 惠普笔记本重装win10系统教程
  14. 记录:为啥没有雷电4接口的显卡扩展坞与移动硬盘?
  15. android循环遍历assert,AppCrawler自动遍历工具
  16. 新能源汽车Tesla的命名
  17. 基于Python的马尼拉PC端桌游设计与实现
  18. Qt优秀开源项目之十二:shotcut
  19. 从互联网+角度看云计算的现状与未来(1)
  20. ROS msg srv

热门文章

  1. 计算飞机票价格python_Python 带你薅羊毛:手把手教你揪出特价机票信息
  2. E20-591考试必备资料分享
  3. html中header怎么设置,HTML中的header标签怎么用?
  4. 密歇根州立大学教授刘小明讲解:人脸识别的新技术 | 大牛讲堂
  5. 如何写好一篇技术型文档?
  6. 医学图像处理SCI期刊介绍
  7. IP地址与DNS的作用,什么是IP地址与DNS【详细】
  8. mosquitto无法连接
  9. 贴片发光二极管/LED灯正负极判断
  10. 接触了阿里云国际版香港服务器,让我学会了飞一般的乐趣