源码下载地址:http://download.csdn.net/detail/huhui_bj/5645641

opencsv下载地址:http://download.csdn.net/detail/huhui_bj/5645661

地震数据下载地址:http://download.csdn.net/detail/huhui_bj/5645685

1 项目说明

本文实现的是用Hadoop的MapReduce计算框架,对国内2013年1月至6月这半年以来的地震数据进行了统计和分析。分别按照地震时间和地震地点进行分析。
地震数据来源于国家地震科学数据共享中心,地址:http://data.earthquake.cn/data/index.jsp?no11&number=28

2 项目准备

首先是开发环境,我所使用的是Eclipse开发环境,eclipse中集成了hadoop开发插件。如何安装单机hadoop,请移步hadoop安装
从国家地震科学数据共享中心下载下来的数据是excel文件,需要转化成CSV文件,这样便于解析。CSV文件中的数据大约有20000条左右,是这半年以来全国各地的地震情况监测数据。全国各地每天都有很多个小型地震发生。其中大部分发生在地壳深处,没有人能高觉到,尽管如此,地震监听站仍会记录这些小型地震。
下面是几行地震数据
日期,时间,纬度(°),经度(°),深度(km),震级类型,震级值,事件类型,参考地名
2013-06-25,06:04:13.0,10.70,-42.60,10,Ms,6.5,eq,中大西洋海岭北部
2013-06-24,14:34:48.7,44.33,84.10,6,Ms,4.1,eq,新疆维吾尔自治区塔城地区乌苏市
2013-06-24,13:02:01.9,44.31,84.17,8,Ms,4.3,eq,新疆维吾尔自治区塔城地区乌苏市
2013-06-24,11:44:20.8,39.42,95.50,6,Ms,3.4,eq,甘肃省酒泉市肃北蒙古族自治县
下面,提出两个问题:
a. 每天有多少次地震发生;
b. 这六个月的时间内,各个地点总共发生了多少次地震。

3 程序说明

3.1 解析CSV文件

CSV文件前面两行是文件头,其它每一行都是一系列逗号分隔开的数据值。我们只对3列数据感兴趣:日期、地点和震级。为了解析CSV文件,我们使用了一个很棒的开源库opencsv,用它能够很容易的解析CSV文件。
我们从CSV文件中复制一条数据作为测试数据,确认我们可以用opencsv来获取我们想要的信息。
/*** 测试读取csv文件中的地震数据*/
package com.eq.test;import java.io.IOException;import au.com.bytecode.opencsv.CSVParser;public class CSVProcessingTest {/*** @param args*/// 从csv文件复制一行数据private final String LINE = "2013-06-23,22:31:30.3,24.70,99.21,5,ML,1.4,eq,云南施甸";public void testReadingOneLine() {String[] lines = null;try {// 用opencsv解析lines = new CSVParser().parseLine(LINE);} catch (IOException e) {// TODO Auto-generated catch blocke.printStackTrace();}// 打印解析结果for (String line : lines) {System.out.println(line);}}public static void main(String[] args) {// TODO Auto-generated method stubCSVProcessingTest csvProcessingTest = new CSVProcessingTest();csvProcessingTest.testReadingOneLine();}}

opencsv处理逗号分隔值值非常简单,该解析器仅返回一组String数组。

3.2 编写map函数

EarthQuakeLocationMapper类继承了hadoop的Mapper对象。它指定输出键为一个Text对象,将其值制定为IntWritable,IntWritable实质上是一个整数。而LongWritable和Text分别表示字节数和文本行数。
/*** 统计地震次数的区域的map*/
package com.eq.map;import java.io.IOException;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import au.com.bytecode.opencsv.CSVParser;public class EarthQuakeLocationMapper extendsMapper<LongWritable, Text, Text, IntWritable> {@Overrideprotected void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {if (key.get() > 0) {String[] lines = new CSVParser().parseLine(value.toString());context.write(new Text(lines[8]), new IntWritable(1));}}
}

map函数十分简单。首先我们检查字节数(key对象)是否为0,这样可以避免CSV文件头部数据。然后传入地名,设置传出键。就是说,我们为每个地名编写一个计数器,当下文中reduce实现被调用时,获取一个键和一系列值。本例中,键是地名及其值,如下面所示:

"四川汶川":[1,1,1,1,1,1,1,1]
"甘肃天祝":[1,1,1,1]
"广西平果":[1,1,1,1,1,1]

注意:context.write(new Text(lines[8]), new IntWritable(1))构建了如上面所示的逻辑关系集合。context是一个保存各种信息的hadoop的数据结构。context将被传递到reduce实现,reduce获取这些值为1的值然后叠加起来,算出总数。因此,一个reduce的输出视图将是这样的:

"四川汶川":[8]
"甘肃天祝":[4]
"广西平果":[6]

3.3 编写reduce函数

reduce实现如下。与Mapper一样,Reducer被参数化了:前两个参数是传入的键类型(Text)和值类型(IntWritable),后两个参数是输出类型:键和值。
package com.eq.reduce;import java.io.IOException;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;public class EarthQuakeLocationReducer extendsReducer<Text, IntWritable, Text, IntWritable> {@Overrideprotected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {int count = 0;for (IntWritable value : values) {count++;}if (count >= 10) {context.write(key, new IntWritable(count));}}
}

reduce的实现也是非常简单的,传入到reduce中实际上是一个值的集合,我们所做的就是将他们加起来,然后写出一个新键值对来表示地点和次数。

"四川汶川":[1,1,1,1,1,1,1,1]  -->  "四川汶川":8

3.3 编写Hadoop的Job

现在我们已经写完了map和reduce,接下来要做的就是将所有这一切链接到一个Hadoop的Job。定义一个Job比较简单:你需要提供输入和输出、map和reduce实现以及输出类型。
/*** 定义一个hadoop job,用于统计不同地域的地震次数*/
package com.eq.job;import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import com.eq.map.EarthQuakeLocationMapper;
import com.eq.map.EarthQuakesPerDateMapper;
import com.eq.reduce.EarthQuakeLocationReducer;
import com.eq.reduce.EarthQuakesPerDateReducer;
import org.apache.hadoop.io.Text;public class EarthQuakesLocationJob {/*** @param args*/public static void main(String[] args) throws Throwable {// TODO Auto-generated method stubJob job = new Job();job.setJarByClass(EarthQuakesLocationJob.class);FileInputFormat.addInputPath(job, new Path("hdfs://localhost:9000/input/earthquake_data.csv"));//csv文件所在目录FileOutputFormat.setOutputPath(job, new Path("hdfs://localhost:9000/output"));job.setMapperClass(EarthQuakeLocationMapper.class);job.setReducerClass(EarthQuakeLocationReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);System.exit(job.waitForCompletion(true)?0:1);}}

3.4程序运行结果

reduce输出的结果,可以在http://localhost:50070中查看。以上只是结果的一部分。
通过上文的叙述,我们解答了前文提到的两个问题的第二个问题。还有第一个问题,就是统计每个时间地震发生的次数。
在源代码中,map函数如下:
/*** map函数的实现*/
package com.eq.map;import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Date;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import au.com.bytecode.opencsv.CSVParser;public class EarthQuakesPerDateMapper extendsMapper<LongWritable, Text, Text, IntWritable> {@Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException {if (key.get() > 0) {try {// csv解析器CSVParser parser = new CSVParser();// 解析csv数据String[] lines = parser.parseLine(value.toString());String dtstr = lines[0];//map输出context.write(new Text(dtstr), new IntWritable(1));} catch (Exception e) {// TODO: handle exceptione.printStackTrace();}}}}

reduce函数如下:

package com.eq.reduce;import java.io.IOException;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;public class EarthQuakesPerDateReducer extendsReducer<Text, IntWritable, Text, IntWritable> {@Overrideprotected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {int count = 0;for (IntWritable value : values) {count++;}context.write(key, new IntWritable(count));}
}

Job如下:

/*** 定义一个hadoop job*/
package com.eq.job;import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import com.eq.map.EarthQuakesPerDateMapper;
import com.eq.reduce.EarthQuakesPerDateReducer;
import org.apache.hadoop.io.Text;public class EarthQuakesPerDayJob {/*** @param args*/public static void main(String[] args) throws Throwable {// TODO Auto-generated method stubJob job = new Job();job.setJarByClass(EarthQuakesPerDayJob.class);FileInputFormat.addInputPath(job, new Path("hdfs://localhost:9000/input/all_month.csv"));//csv文件所在目录FileOutputFormat.setOutputPath(job, new Path("hdfs://localhost:9000/output"));job.setMapperClass(EarthQuakesPerDateMapper.class);job.setReducerClass(EarthQuakesPerDateReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);System.exit(job.waitForCompletion(true)?0:1);}}

这几段代码和之前的很相似,此处不再赘述。

基于Hadoop的地震数据分析统计相关推荐

  1. 基于python的气象数据分析统计服_基于Python的风向风速数据分析的设计与实现

    基于 Python 的风向风速数据分析的设计与实现 李文倩 ; 刘婕 [期刊名称] < <信息通信> > [年 ( 卷 ), 期] 2019(000)009 [摘要] Pyth ...

  2. 基于Hadoop豆瓣电影数据分析(综合实验)

    Hadoop作为处理大数据重要的分布式架构,熟练掌握每一个组件和知识点是非常重要的.随着现代社会产生的大量信息,大数据已不仅仅是调查领域:它是改变业务实践和营销策略的强大力量.据BCG称, 大数据可以 ...

  3. 基于hadoop的出租车数据分析(二)

    http://mp.weixin.qq.com/s?__biz=MzI0NzM2MDExMw==&mid=2247483687&idx=1&sn=1862868680559dd ...

  4. 基于Hadoop和Spark体系的大数据分析平台构建

    谢谢分享! 转载:http://www.sohu.com/a/249271561_481409 随着大数据.人工智能等技术的快速发展,企业对大数据平台的需求越来越强烈,通过大数据分析技术为企业提供经营 ...

  5. 基于Hadoop的数据分析平台搭建

    企业发展到一定规模都会搭建单独的BI平台来做数据分析,即OLAP(联机分析处理),一般都是基于数据库技术来构建,基本都是单机产品.除了业务数据的相关分析外,互联网企业还会对用户行为进行分析,进一步挖掘 ...

  6. 大数据hadoop,spark数据分析之 基于大数据平台的运营商在线服务系统设计

    今天向大家介绍一个帮助往届学生完成的毕业设计项目,大数据hadoop,spark数据分析之 基于大数据平台的运营商在线服务系统设计. 基于大数据平台的运营商在线服务系统设计 随着通信行业的业务拓展以及 ...

  7. 基于Hadoop + Hive框架进行电子商务数据分析的设计与实现

    摘要 随着大数据时代的到来,企业挖掘出隐藏巨大的数据价值给带来了更多的市场机会.大数据存储,处理和处理的研究已是企业未来发展的趋势,因此,将开展基于Hadoop + Hive框架进行电子商务数据分析, ...

  8. 基于hadoop实现的关联规则挖掘的图书数据分析推荐系统

    资源下载地址:https://download.csdn.net/download/sheziqiong/86763735 资源下载地址:https://download.csdn.net/downl ...

  9. 大数据开发:基于Hadoop的数据分析平台

    互联网的发展,带来了各种数据的爆发式增长,所以接入互联网的相关操作行为,都化为虚拟的数据被记录了下来.大数据时代的带来,一个明显的变化就是全样本数据分析,面对TB/PB级及以上的数据规模,Hadoop ...

最新文章

  1. s3c2410下利用TL16C554扩展4个全功能串口
  2. Keras中神经网络可视化模块keras.utils.visualize_util安装配置方法
  3. java自由块_JAVA 静态的自由块和非静态的自由块
  4. java下載與安裝_[Java] 下載與安裝Java官方開發工具:NetBeans IDE
  5. clion variable set
  6. windows2003添加普通用户的远程桌面权限
  7. java选择排序算法实现
  8. u盘安装linux系统自动关机,将u盘拔出后电脑自动关机怎么解决【解决方法】
  9. 201709020工作日记--synchronized、ReentrantLock、读写锁
  10. 微信浏览器真不愧移动届ie啊
  11. Halcon region区域提取及区域转图像
  12. 微型计算机课程设计电子密码锁,《微机原理及应用》课程设计基于74LS112的电子密码锁设计报告初版...
  13. 基于STM32标准库建立Keil-MDK工程模板(STM32F407ZG)
  14. 今天跟linux无关--我所喜爱Linux的游戏
  15. 那些年啊,那些事——一个程序员的奋斗史 ——80
  16. 香蕉派 BPI-R2 作为4G多路聚合融合通信应用开发平台
  17. 已知二叉树先序序列和中序序列,求后序序列
  18. python 选手比赛模拟
  19. 网络空间安全是否有必要考研
  20. 《工程电磁场》学习笔记4-时变电磁场

热门文章

  1. ICLR 2021 | Autoregressive Entity Retrieval
  2. foxmail邮箱软件配置不同的邮件放入到不同的文件夹下
  3. IOS9.0-Swift 引导页面实现
  4. ChatterBot聊天机器人结构(一):搭建聊天机器人
  5. 蓝牙耳机哪款性价比高音质好?2023公认音质最好的蓝牙耳机
  6. FastDB GigaBASE: Object-Relational Database Management Systems
  7. 川大 计算机考研 英语复试,川大考研复试经验干货,学长学姐为你加油!
  8. Linux 内核设计与实现之第17章 设备与模块
  9. ❗ 帅小伙花了一个小时,竟把图书馆智慧大屏模仿的有模有样!妙啊~
  10. 【面试现场】为什么要分稳定排序和非稳定排序?