本文实例讲解的是一般的hadoop入门程序“WordCount”,就是首先写一个map程序用来将输入的字符串分割成单个的单词,然后reduce这些单个的单词,相同的单词就对其进行计数,不同的单词分别输出,结果输出每一个单词出现的频数。

注意:关于数据的输入输出是通过sys.stdin(系统标准输入)和sys.stdout(系统标准输出)来控制数据的读入与输出。所有的脚本执行之前都需要修改权限,否则没有执行权限,例如下面的脚本创建之前使用“chmod +x mapper.py”

1.mapper.py

#!/usr/bin/env python

import sys

for line in sys.stdin: # 遍历读入数据的每一行

line = line.strip() # 将行尾行首的空格去除

words = line.split() #按空格将句子分割成单个单词

for word in words:

print '%s\t%s' %(word, 1)

2.reducer.py

#!/usr/bin/env python

from operator import itemgetter

import sys

current_word = None # 为当前单词

current_count = 0 # 当前单词频数

word = None

for line in sys.stdin:

words = line.strip() # 去除字符串首尾的空白字符

word, count = words.split('\t') # 按照制表符分隔单词和数量

try:

count = int(count) # 将字符串类型的‘1'转换为整型1

except ValueError:

continue

if current_word == word: # 如果当前的单词等于读入的单词

current_count += count # 单词频数加1

else:

if current_word: # 如果当前的单词不为空则打印其单词和频数

print '%s\t%s' %(current_word, current_count)

current_count = count # 否则将读入的单词赋值给当前单词,且更新频数

current_word = word

if current_word == word:

print '%s\t%s' %(current_word, current_count)

在shell中运行以下脚本,查看输出结果:

echo "foo foo quux labs foo bar zoo zoo hying" | /home/wuying/mapper.py | sort -k 1,1 | /home/wuying/reducer.py

# echo是将后面“foo ****”字符串输出,并利用管道符“|”将输出数据作为mapper.py这个脚本的输入数据,并将mapper.py的数据输入到reducer.py中,其中参数sort -k 1,1是将reducer的输出内容按照第一列的第一个字母的ASCII码值进行升序排序

其实,我觉得后面这个reducer.py处理单词频数有点麻烦,将单词存储在字典里面,单词作为‘key',每一个单词出现的频数作为'value',进而进行频数统计感觉会更加高效一点。因此,改进脚本如下:

mapper_1.py

但是,貌似写着写着用了两个循环,反而效率低了。关键是不太明白这里的current_word和current_count的作用,如果从字面上老看是当前存在的单词,那么怎么和遍历读取的word和count相区别?

下面看一些脚本的输出结果:

我们可以看到,上面同样的输入数据,同样的shell换了不同的reducer,结果后者并没有对数据进行排序,实在是费解~

让Python代码在hadoop上跑起来!

一、准备输入数据

接下来,先下载三本书:

$ mkdir -p tmp/gutenberg

$ cd tmp/gutenberg

$ wget http://www.gutenberg.org/ebooks/20417.txt.utf-8

$ wget http://www.gutenberg.org/files/5000/5000-8.txt

$ wget http://www.gutenberg.org/ebooks/4300.txt.utf-8

然后把这三本书上传到hdfs文件系统上:

$ hdfs dfs -mkdir /user/${whoami}/input # 在hdfs上的该用户目录下创建一个输入文件的文件夹

$ hdfs dfs -put /home/wuying/tmp/gutenberg/*.txt /user/${whoami}/input # 上传文档到hdfs上的输入文件夹中

寻找你的streaming的jar文件存放地址,注意2.6的版本放到share目录下了,可以进入hadoop安装目录寻找该文件:

$ cd $HADOOP_HOME

$ find ./ -name "*streaming*"

然后就会找到我们的share文件夹中的hadoop-straming*.jar文件:

寻找速度可能有点慢,因此你最好是根据自己的版本号到对应的目录下去寻找这个streaming文件,由于这个文件的路径比较长,因此我们可以将它写入到环境变量:

$ vi ~/.bashrc # 打开环境变量配置文件

# 在里面写入streaming路径

export STREAM=$HADOOP_HOME/share/hadoop/tools/lib/hadoop-streaming-*.jar

由于通过streaming接口运行的脚本太长了,因此直接建立一个shell名称为run.sh来运行:

hadoop jar $STREAM \

-files ./mapper.py,./reducer.py \

-mapper ./mapper.py \

-reducer ./reducer.py \

-input /user/$(whoami)/input/*.txt \

-output /user/$(whoami)/output

然后"source run.sh"来执行mapreduce。结果就响当当的出来啦。这里特别要提醒一下:

1、一定要把本地的输入文件转移到hdfs系统上面,否则无法识别你的input内容;

2、一定要有权限,一定要在你的hdfs系统下面建立你的个人文件夹否则就会被denied,是的,就是这两个错误搞得我在服务器上面痛不欲生,四处问人的感觉真心不如自己清醒对待来的好;

3、如果你是第一次在服务器上面玩hadoop,建议在这之前请在自己的虚拟机或者linux系统上面配置好伪分布式然后入门hadoop来的比较不那么头疼,之前我并不知道我在服务器上面运维没有给我运行的权限,后来在自己的虚拟机里面运行一下example实例以及wordcount才找到自己的错误。

好啦,然后不出意外,就会complete啦,你就可以通过如下方式查看计数结果:

以上就是本文的全部内容,希望对大家学习python软件编程有所帮助。

时间: 2016-01-26

winpythonhadoop_让python在hadoop上跑起来相关推荐

  1. hadoopshpython_让python在hadoop上跑起来

    本文实例讲解的是一般的hadoop入门程序"WordCount",就是首先写一个map程序用来将输入的字符串分割成单个的单词,然后reduce这些单个的单词,相同的单词就对其进行计 ...

  2. python hadoop_让python在hadoop上跑起来

    duang~好久没有更新博客啦,原因很简单,实习啦-好吧,我过来这边上班表示觉得自己简直弱爆了.第一周,配置环境:第二周,将数据可视化,包括学习了excel2013的一些高大上的技能,例如数据透视表和 ...

  3. Python 在windows上跑图色脚本?简单又好玩,自己编写一个自动化脚本

    Python 在windows上跑图色脚本?简单又好玩,自己编写一个自动化脚本 大家好 我又来开新坑了,如图这次准备用python弄个简单脚本(根据图色判断进行键鼠操作) 1.老规矩 先安排运行环境 ...

  4. python部署到hadoop上_python实现mapreduce(2)——在hadoop中执行

    目的:将python实现mapreduce(1)中的python脚本部署到hadoop上,实现mapreduce. 1. 修改脚本执行权限 [tianyc@TeletekHbase ~]$ which ...

  5. 服务器跑python程序后还能安装网站吗_如何在服务器上跑python程序

    在服务器上跑python程序的方法: 登录服务器,将需要运行的python程序上传到服务器端,选择合适的python版本,运行python解释器,将程序路径添加进去执行就可以了 示例如下: windo ...

  6. python hadoop wordcount_在Hadoop上用Python实现WordCount

    一.简单说明 本例中我们用Python写一个简单的运行在Hadoop上的MapReduce程序,即WordCount(读取文本文件并统计单词的词频).这里我们将要输入的单词文本input.txt和Py ...

  7. 在网页上跑个 python 程序 - 试水 pyscript

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言. 一.PyScript 是什么? 二.使用步骤 1.CDN 2.第一个 PyScript 应用 3. 使用第三方包 总 ...

  8. python wordcount_在Hadoop上用Python实现WordCount

    在hadoop上用Python实现WordCount 一.简单说明 本例中我们用Python写一个简单的运行在Hadoop上的MapReduce程序,即WordCount(读取文本文件并统计单词的词频 ...

  9. python程序能不能在安卓手机上跑-把旧android手机变成跑python的服务器

    把旧android手机变成跑python的服务器大致的思路是把android手机当linux主机用. 所以我们先要shell到手机,然后在手机上搭建python运行的环境,这样我们就能够把写的pyth ...

最新文章

  1. 语法错误 : 缺少“;”(在“类型”的前面)的解决方案 转载
  2. android组件通讯 Intent- 系统标准的Activity Action应用
  3. Python实现字符串反转的几种方法
  4. c语言学生成绩删除功能,c语言学生成绩管理系统程序设计,有添加,查找,删除,输出,修改,排序等功能!!!...
  5. 页面上显示的带有乱码名称的js文件是怎么回事?
  6. oppo售后解锁恢复工具.zip_OPPO手机4个不为人知的小技巧,全知道的竟然不到1%,令人唏嘘...
  7. oracle性能优化求生指南_oracle性能优化:高水位线(HWM)详解--如何计算HWM
  8. alv界面允许数字输入负号_在Excel中输入这些字符,我被虐哭了
  9. “10%时间”:优点和缺点——敏捷海滩会议上Elizabeth Pope的报告
  10. 【报告分享】2019年中国互联网企业战投发展白皮书.pdf(附154页pdf下载链接)...
  11. 达成这个目标的数据分析师,在大厂HR眼里最新鲜吃香
  12. spring MVC三种统一异常处理的方法
  13. ubantu 终端屏幕查找字符串
  14. 7-45 实验8_2_推销员的便条 (100 分)
  15. iWatermark Pro for Mac(水印制作软件)
  16. 计算DNA中每种核苷酸的数目
  17. Altium的基本使用方法
  18. 制作 win10 u 盘安装盘
  19. 整理MAC下Eclipse的常用快捷键
  20. 什么是路由模式通配符?

热门文章

  1. Lisp-Stat翻译 —— 第九章 统计绘图窗体
  2. Android特效 五种Toast具体解释
  3. 解决从其它搜索引擎不能直接访问百度页面的问题
  4. 第3节 中间层创建与设置
  5. Redo Log 和Checkpoint not complete
  6. docker kali安装mysql_kali安装docker(有效详细的教程) ——vulhub漏洞复现 001
  7. 小程序测试用例模板_微信小程序样式:高质量小程序样式模板大全
  8. 极光推送指定用户推送_干货|SpringBoot集成极光推送完整实现代码(建议收藏)...
  9. python有哪些常用的package_个人Python常用Package及其安装
  10. oracle asm 删除diskgroup,ASM磁盘组删除DISK操作