1. 项目背景

在Python即时网络爬虫项目启动说明中我们讨论一个数字:程序员浪费在调测内容提取规则上的时间太多了(见上图),从而我们发起了这个项目,把程序员从繁琐的调测规则中解放出来,投入到更高端的数据处理工作中。

这个项目推出以后受到很大关注,因为开放源码,大家可以在现成源码基础上进一步开发。然而,Python3和Python2是有区别的,《Python即时网络爬虫项目: 内容提取器的定义》 一文的源码无法在Python2.7下使用,本文将发布一个Python2.7的内容提取器。

2. 解决方案

为了解决这个问题,我们把影响通用性和工作效率的提取器隔离出来,描述了如下的数据处理流程图:

图中“可插拔提取器”必须很强的模块化,那么关键的接口有:

  • 标准化的输入:以标准的HTML DOM对象为输入

  • 标准化的内容提取:使用标准的xslt模板提取网页内容

  • 标准化的输出:以标准的XML格式输出从网页上提取到的内容

  • 明确的提取器插拔接口:提取器是一个明确定义的类,通过类方法与爬虫引擎模块交互

3. 提取器代码

可插拔提取器是即时网络爬虫项目的核心组件,定义成一个类: GsExtractor
适用python2.7的源代码文件及其说明文档请从 github 下载

使用模式是这样的:

  1. 实例化一个GsExtractor对象

  2. 为这个对象设定xslt提取器,相当于把这个对象配置好(使用三类setXXX()方法)

  3. 把html dom输入给它,就能获得xml输出(使用extract()方法)

下面是这个GsExtractor类的源代码(适用于Python2.7)

#!/usr/bin/python
# -*- coding: utf-8 -*-
# 模块名: gooseeker_py2
# 类名: GsExtractor
# Version: 2.0
# 适配Python版本: 2.7
# 说明: html内容提取器
# 功能: 使用xslt作为模板,快速提取HTML DOM中的内容。
# released by 集搜客(http://www.gooseeker.com) on May 18, 2016
# github: https://github.com/FullerHua/jisou/core/gooseeker_py2.pyfrom urllib2 import urlopen
from urllib import quote
from lxml import etree
import timeclass GsExtractor(object):def _init_(self):self.xslt = ""# 从文件读取xsltdef setXsltFromFile(self , xsltFilePath):file = open(xsltFilePath , 'r')try:self.xslt = file.read()finally:file.close()# 从字符串获得xsltdef setXsltFromMem(self , xsltStr):self.xslt = xsltStr# 通过GooSeeker API接口获得xsltdef setXsltFromAPI(self , APIKey , theme, middle=None, bname=None):apiurl = "http://www.gooseeker.com/api/getextractor?key="+ APIKey +"&theme="+quote(theme)if (middle):apiurl = apiurl + "&middle="+quote(middle)if (bname):apiurl = apiurl + "&bname="+quote(bname)apiconn = urlopen(apiurl)self.xslt = apiconn.read()# 返回当前xsltdef getXslt(self):return self.xslt# 提取方法,入参是一个HTML DOM对象,返回是提取结果def extract(self , html):xslt_root = etree.XML(self.xslt)transform = etree.XSLT(xslt_root)result_tree = transform(html)return result_tree

4. 用法示例

下面是一个示例程序,演示怎样使用GsExtractor类提取豆瓣讨论组话题。本示例有如下特征:

  • 提取器的内容通过GooSeeker平台上的api获得

  • 保存结果文件到当前文件夹

下面是源代码,都可从 github 下载

# _*_coding:utf8_*_
# douban_py2.py
# 爬取豆瓣小组讨论话题
# Python版本: 2.7from lxml import etree
from gooseeker_py2 import GsExtractor
from selenium import webdriver
import timeclass PhantomSpider:def getContent(self, url):browser = webdriver.PhantomJS(executable_path='C:\\phantomjs-2.1.1-windows\\bin\\phantomjs.exe')browser.get(url)time.sleep(3)html = browser.execute_script("return document.documentElement.outerHTML")output = etree.HTML(html)return outputdef saveContent(self, filepath, content):file_obj = open(filepath, 'w')file_obj.write(content)file_obj.close()doubanExtra = GsExtractor()
# 下面这句调用gooseeker的api来设置xslt抓取规则
# 第一个参数是app key,请到GooSeeker会员中心申请
# 第二个参数是规则名,是通过GooSeeker的图形化工具: 谋数台MS 来生成的
doubanExtra.setXsltFromAPI("ffd5273e213036d812ea298922e2627b" , "豆瓣小组讨论话题")  url = "https://www.douban.com/group/haixiuzu/discussion?start="
totalpages = 5
doubanSpider = PhantomSpider()
print("爬取开始")for pagenumber in range(1 , totalpages):currenturl = url + str((pagenumber-1)*25)print("正在爬取", currenturl)content = doubanSpider.getContent(currenturl)outputxml = doubanExtra.extract(content)outputfile = "result" + str(pagenumber) +".xml"doubanSpider.saveContent(outputfile , str(outputxml))print("爬取结束")

提取结果如下图所示:

5. 接下来阅读

本文已经说明了提取器的价值和用法,但是没有说怎样生成它,只有快速生成提取器才能达到节省开发者时间的目的,这个问题将在其他文章讲解,请看《1分钟快速生成用于网页内容提取的xslt模板》

6. 集搜客GooSeeker开源代码下载源

  1. GooSeeker开源Python网络爬虫GitHub源

7. 文档修改历史

2016-08-05:V1.0,Python2.7下的内容提取器类首次发布

Python即时网络爬虫项目: 内容提取器的定义(Python2.7版本)相关推荐

  1. python爬虫程序的流程图_Python即时网络爬虫项目: 内容提取器的定义(Python2.7版本)...

    ###1. 项目背景 在Python即时网络爬虫项目启动说明中我们讨论一个数字:程序员浪费在调测内容提取规则上的时间太多了(见上图),从而我们发起了这个项目,把程序员从繁琐的调测规则中解放出来,投入到 ...

  2. python网络爬虫的项目背景_第四章 Python即时网络爬虫项目: 内容提取器的定义

    1. 项目背景 在python即时网络爬虫项目启动说明中我们讨论一个数字:程序员浪费在调测内容提取规则上的时间,从而我们发起了这个项目,把程序员从繁琐的调测规则中解放出来,投入到更高端的数据处理工作中 ...

  3. Python大型网络爬虫项目开发实战

    1    讲师简介 2    课程简介及特色 实战精通Scrapy爬虫项目编写 "Scrapy是Python的一个非常流行的爬虫框架,使用Scrapy框架可以很方面做出大型爬虫项目,但Scr ...

  4. 中国大学mooc实战项目之淘宝商品信息提取 python《网络爬虫与数据提取》

    *获取页面里没有商品信息而是登录页面是因为没有cookie信息,所以想要获取淘宝商品信息需要先登录自己的账号得到自己的cookie 获取淘宝cookie的方法: 首先先登录我们自己的淘宝账号 淘宝搜索 ...

  5. python爬虫程序说明_Python即时网络爬虫:API说明

    API说明--下载gsExtractor内容提取器 1,接口名称 下载内容提取器 2,接口说明 如果您想编写一个网络爬虫程序,您会发现大部分时间耗费在调测网页内容提取规则上,不讲正则表达式的语法如何怪 ...

  6. python百度百科api-Python即时网络爬虫:API说明

    API说明--下载gsExtractor内容提取器 1,接口名称 下载内容提取器 2,接口说明 如果您想编写一个网络爬虫程序,您会发现大部分时间耗费在调测网页内容提取规则上,不讲正则表达式的语法如何怪 ...

  7. 【python实现网络爬虫(5)】第一个Scrapy爬虫实例项目(Scrapy原理及Scrapy爬取名言名句网站信息)

    Scrapy介绍 总共有五部分组成的:具体的流程可看图示 引擎.调度器.下载器.蜘蛛和项目管道 爬取流程 针对于每个URL, Scheduler -> Downloader -> Spid ...

  8. python网络爬虫_Python即时网络爬虫:API说明

    1,接口名称 下载内容提取器 2,接口说明 如果您想编写一个网络爬虫程序,您会发现大部分时间耗费在调测网页内容提取规则上,不讲正则表达式的语法如何怪异,即便使用XPath,您也得逐个编写和调试. 如果 ...

  9. 基于Python实现的网络爬虫项目——多线程下载小说并保存为txt文件(包含完整代码及注释)

    基于Python实现的网络爬虫项目--多线程下载小说并保存为txt文件(包含完整代码及注释) 一.确立预期目标 二.完成项目所需工具 三.项目需要解决的问题 问题一 问题二 问题三 问题四 问题五 问 ...

最新文章

  1. 简单两步就能将 Laravel Log 信息发到其他平台上
  2. 【LeetCode从零单排】No83 Remove Duplicates from Sorted List
  3. html安装网卡驱动,如何手动安装无线网卡驱动,网卡驱动安装教程
  4. ABAP 在程序中启动后台JOB
  5. 上海人工智能实验室牛雅哲:通用决策AI平台的开拓创新之路
  6. 2019蚂蚁金服面试总结(Java方向)
  7. FastCgi与PHP-fpm之间的关系
  8. 自己都不觉得自己值钱,别人怎么觉得你值钱?
  9. jsecharts如何改变占比_什么是基础代谢?如何提高基础代谢?基础代谢对减肥很重要...
  10. 斜齿轮重合度计算公式_斜齿轮的端面重合度计算
  11. ps自定义(新建)图框工具
  12. 沁恒CH32V307母板+OPA4377运放模块-开源
  13. 9大最佳工程施工项目管理系统
  14. 剖析 Microsoft.AspNetCore.Identity 的精髓 —— 前言
  15. 【python与数据分析】实验十三 北京市空气质量
  16. java下载网站图片代码_java下载网上的图片到本地
  17. 萨缪尔·莫尔斯,一个种族主义画家是如何窃取了电报发明权的呢?
  18. 风变编程,让小白也能轻松学会!
  19. C#随机函数Radom问题详解
  20. table html 合并列,html table上下行合并

热门文章

  1. 8 使用_【化学技能8】 酸式滴定管的使用
  2. python之WEB开发:图片管理
  3. 【信息抽取】如何使用卷积神经网络进行关系抽取
  4. 一文说说这十多年来计算机玩摄影的历史
  5. 2022年全球及中国真空用光纤馈通件行业运营形式与未来投资动向调研报告
  6. 国际农民丰收节贸易会-万祥军: 全球TOP10农企携手阿里
  7. 中粮集团对话农民丰收节交易会-万祥军:订单农业丰收经
  8. 杂项-公司:联邦快递百科-un
  9. bzoj3224: Tyvj 1728 普通平衡树(splay)
  10. C#中的深复制和浅复制(在C#中克隆对象)