一 增量式爬虫

什么时候使用增量式爬虫:

增量式爬虫:需求 当我们浏览一些网站会发现,某些网站定时的会在原有的基础上更新一些新的数据。如一些电影网站会实时更新最近热门的电影。那么,当我们在爬虫的过程中遇到这些情况时,我们是不是应该定期的更新程序以爬取到更新的新数据?那么,增量式爬虫就可以帮助我们来实现

二 增量式爬虫

概念

通过爬虫程序检测某网站数据更新的情况,这样就能爬取到该网站更新出来的数据

如何进行增量式爬取工作:

在发送请求之前判断这个URL之前是不是爬取过

在解析内容之后判断该内容之前是否爬取过

在写入存储介质时判断内容是不是在该介质中

增量式的核心是 去重

去重的方法

将爬取过程中产生的URL进行存储,存入到redis中的set中,当下次再爬取的时候,对在存储的URL中的set中进行判断,如果URL存在则不发起请求,否则 就发起请求

对爬取到的网站内容进行唯一的标识,然后将该唯一标识存储到redis的set中,当下次再爬取数据的时候,在进行持久化存储之前,要判断该数据的唯一标识在不在redis中的set中,如果在,则不在进行存储,否则就存储该内容

三 实列

爬取4567tv网站中所有的电影详情数据

movie.py

# -*- coding: utf-8 -*-

import scrapy

from scrapy.linkextractors import LinkExtractor

from scrapy.spiders import CrawlSpider, Rule

from redis import Redis

from increment1_Pro.items import Increment1ProItem

class MovieSpider(CrawlSpider):

name = 'movie'

# allowed_domains = ['www.xxx.com']

start_urls = ['https://www.4567tv.tv/index.php/vod/show/id/7.html']

rules = (

Rule(LinkExtractor(allow=r'/index.php/vod/show/id/7/page/\d+\.html'), callback='parse_item', follow=True),

)

def parse_item(self, response):

conn = Redis(host='127.0.0.1',port=6379)

detail_url_list= response.xpath('//li[@class="col-md-6 col-sm-4 col-xs-3"]/div/a/@href').extract()

for url in detail_url_list:

ex = conn.sadd('movies_url',url)

#等于1 的时候 说明数据还没有存储到redis中 等于0 的时候 说明redis中已经存在该数据

if ex == 1:

yield scrapy.Request(url=url,callback=self.parse_detail)

else:

print("网站中无数据更新,没有可爬取得数据!!!")

def parse_detail(self,response):

item = Increment1ProItem()

item['name']=response.xpath('/html/body/div[1]/div/div/div/div[2]/h1/text()').extract_first()

item['actor']=response.xpath('/html/body/div[1]/div/div/div/div[2]/p[3]/a/text()').extract_first()

yield item

# item = {}

#item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()

#item['name'] = response.xpath('//div[@id="name"]').get()

#item['description'] = response.xpath('//div[@id="description"]').get()

# return item

管道文件

from redis import Redis

class Increment1ProPipeline(object):

conn = None

def open_spider(self,spider):

self.conn = Redis(host='127.0.0.1',port=6379)

def process_item(self, item, spider):

print('有新的数据正在入库')

self.conn.lpush('movie_data',item)

return item

爬取糗事百科中的内容和作者

qiubai.py

# -*- coding: utf-8 -*-

import scrapy

from scrapy.linkextractors import LinkExtractor

from scrapy.spiders import CrawlSpider, Rule

from redis import Redis

from increment2_Pro.items import Increment2ProItem

import hashlib

class QiubaiSpider(CrawlSpider):

name = 'qiubai'

# allowed_domains = ['www.xxx.com']

start_urls = ['https://www.qiushibaike.com/text/']

rules = (

Rule(LinkExtractor(allow=r'/text/page/\d+/'), callback='parse_item', follow=True),

)

def parse_item(self, response):

div_list = response.xpath('//div[@class="article block untagged mb15 typs_hot"]')

conn = Redis(host='127.0.0.1',port=6379)

for div in div_list:

item = Increment2ProItem()

item['content'] = div.xpath('.//div[@class="content"]/span//text()').extract()

item['content'] = ''.join(item['content'])

item['author'] = div.xpath('./div/a[2]/h2/text() | ./div[1]/span[2]/h2/text()').extract_first()

source = item['author'] + item['content']

sourse = item['content']+item['author']

#自己定制一种形式得数据指纹

hashvalue = hashlib.sha256(sourse.encode()).hexdigest()

ex = conn.sadd('qiubai_hash',hashvalue)

if ex == 1:

yield item

else:

print('没有可更新的数据可爬取')

# item = {}

#item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()

#item['name'] = response.xpath('//div[@id="name"]').get()

#item['description'] = response.xpath('//div[@id="description"]').get()

# return item

管道文件

from redis import Redis

class Increment2ProPipeline(object):

conn = None

def open_spider(self,spider):

self.conn = Redis(host='127.0.0.1',port=6379)

def process_item(self, item, spider):

dic = {

'author':item['author'],

'content':item['content']

}

self.conn.lpush('qiubaiData',dic)

print('爬取到一条数据,正在入库......')

return item

python增量爬虫_python爬虫Scrapy框架之增量式爬虫相关推荐

  1. dataObject可以去重吗java_python爬虫scrapy框架之增量式爬虫的示例代码

    scrapy框架之增量式爬虫 一 .增量式爬虫 什么时候使用增量式爬虫: 增量式爬虫:需求 当我们浏览一些网站会发现,某些网站定时的会在原有的基础上更新一些新的数据.如一些电影网站会实时更新最近热门的 ...

  2. Python爬虫5.3 — scrapy框架spider[Request和Response]模块的使用

    Python爬虫5.3 - scrapy框架spider[Request和Response]模块的使用 综述 Request对象 scrapy.Request()函数讲解: Response对象 发送 ...

  3. scrapy框架之增量式爬虫

    scrapy框架之增量式爬虫 一 .增量式爬虫 什么时候使用增量式爬虫: 增量式爬虫:需求 当我们浏览一些网站会发现,某些网站定时的会在原有的基础上更新一些新的数据.如一些电影网站会实时更新最近热门的 ...

  4. python scrapy 框架的简单使用爬虫苏宁易购图书信息

    python scrapy 框架的简单使用&&爬虫苏宁易购图书信息 前言 第一步: 分析网页 1.1 找到要爬取的数据位置 分类信息 图书信息 价格信息 1.2 分析如何获取数据 正则 ...

  5. 使用scrapy框架做赶集网爬虫

    使用scrapy框架做赶集网爬虫 一.安装 首先scrapy的安装之前需要安装这个模块:wheel.lxml.Twisted.pywin32,最后在安装scrapy pip install wheel ...

  6. Python可视化数据分析02、Scrapy框架-强化测试Scrapy-CSS

    Python可视化数据分析02.Scrapy框架

  7. python爬虫Scrapy框架之增量式爬虫

    一 增量式爬虫 什么时候使用增量式爬虫: 增量式爬虫:需求 当我们浏览一些网站会发现,某些网站定时的会在原有的基础上更新一些新的数据.如一些电影网站会实时更新最近热门的电影.那么,当我们在爬虫的过程中 ...

  8. python爬虫天气实例scrapy_python爬虫之利用scrapy框架抓取新浪天气数据

    scrapy中文官方文档:点击打开链接 Scrapy是Python开发的一个快速.高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘 ...

  9. python爬虫入门(六) Scrapy框架之原理介绍

    Scrapy框架 Scrapy简介 Scrapy是用纯Python实现一个为了爬取网站数据.提取结构性数据而编写的应用框架,用途非常广泛. 框架的力量,用户只需要定制开发几个模块就可以轻松的实现一个爬 ...

最新文章

  1. Chemistry.AI | 基于图卷积神经网络(GCN)预测分子性质
  2. python 删除list中的第一个元素
  3. java学习笔记(八)----包,jar文件
  4. 信息检索Information Retrieval评价指标
  5. vsftp的被动模式
  6. Cloud一分钟 | 马云发表致股东的公开信;5G算什么?中国已着手研究6G相关工作...
  7. 程序员离职后12天,被前领导命令回去讲清代码?小伙直接说收费
  8. 隆冬寒骨,风吹十一豪迈
  9. Codeforces Round #197 (Div. 2): D. Xenia and Bit Operations(线段树)
  10. x1000e rtl wifi 移植
  11. 台式计算机的cpu,台式电脑处理器(CPU)性能排行榜
  12. [MQ]什么是消息队列?
  13. 图像处理——图像的增强技术
  14. linux开发板添加qt库文件_关于QT程序下载到开发板的一些步骤总结
  15. 西游记中金箍棒的来历和巨大威力
  16. it人成功的六大步骤
  17. Android studio 可视化图表制作
  18. VMware Tools 启动脚本未能在虚拟机中成功运行。如果您在此虚拟机中配置了自定义启动脚本,请确保该脚本没有错误。您也可以提交支持请求,报告此问题。
  19. 整流线性单元(Relu)及其变种(Leaky Relu、PRelu、ELU、SELU、CRelu、RRelu)
  20. php如何做md5签名,MD5数字签名算法:生成签名和验签(附代码)

热门文章

  1. ubuntu中mysql操作_uBuntu下安装MySql,及mySql操作!
  2. Opencv学习笔记——release和debug两个模式的运行问题
  3. 晚安科大20211130
  4. 简述深度学习预训练和正则化
  5. 在线计算机多功能,一种多功能组合计算机制造技术
  6. java map 查找_Map 查找表操作
  7. 关于开发系统后门软件的几点思路
  8. Delphi2010组件/控件安装方法
  9. strhcr函数的使用简单示例
  10. 实验一 线性表、堆栈和队列的操作与实现