爬取流程

Spider类定义如何爬取指定的一个或多个网站,包括是否要跟进网页里的链接和如何提取网页内容中的数据。

爬取的过程是类似以下步骤的循环:

1.通过指定的初始URL初始化Request,并指定回调函数。当Request下载完后,生成Response作为参数传给回调函数。初始的Request是通过start_requests()读取start_urls中的URL来生成的,回调函数为parse()。
2.在回调函数中分析Response的内容,返回Item对象或者Request或包含二者的可迭代容器。返回Request对象经过Scrapy处理,下载相应的内容,并调用设置的回调函数。
3.在回调函数中,可以用选择器(或者Beautiful Soup,lxml这些解析器)来分析网页内容,生成Item。
4.生成的Item可以存入数据库,或存入到文件。

spider类

class scrapy.spiders.Spider:最简单的爬虫类。方法与属性:
name:爬虫名,要唯一。
allowed_domains:允许爬取的域名列表。
start_urls:初始的URL列表。
custom_settings:参数配置字典,必须是类属性,因为参数配置在实例化前被更新。
crawler:此属性是由from_crawler()设置的。
settings:运行此爬虫的设置。
logger:Python的日志记录器,通过爬虫名创建。
from_crawler(crawler, *args, **kwargs):类方法,用于创建爬虫。crawler是Crawler的实例对象。
start_requests():当打开爬虫时调用此方法。会用初始URL列表创建Request。只调用一次。
parse(response):用于处理Response。
log(message[, level, component]):通过封装logger来发送日志消息。
closed(reason):爬虫关闭时调用此方法。

爬虫参数

爬虫可以接受参数来改变它的行为。这些参数一般用来定义初始URL,或者限定爬取网站的部分内容,也可以用来配置其它任何功能。

在运行crawl命令时,通过-a选项来传递参数(键值对):

scrapy crawl myspider -a category=electronics

然后可以在__init__()初始化函数里获取参数,如:

class MySpider(scrapy.Spider):name = 'myspider'def __init__(self, category=None, *args, **kwargs):  # 直接作为一个函数参数super(MySpider, self).__init__(*args, **kwargs)self.start_urls = ['http://www.example.com/categories/%s' % category]

而默认的__init__()函数会把这些参数定义为爬虫的属性,因此也可以这样用:

class MySpider(scrapy.Spider):name = 'myspider'def start_requests(self):yield scrapy.Request('http://www.example.com/categories/%s' % self.category)  # 作为一个属性

# -*- coding: utf-8 -*-
import scrapy
from wangyiPro.items import WangyiproItem
from selenium import webdriver
class WangyiSpider(scrapy.Spider):name = 'wangyi'# allowed_domains = ['www.xxx.com']start_urls = ['https://news.163.com/']model_urls = [] #存放五大板块对应的urldef __init__(self):self.bro = webdriver.Chrome(executable_path=r'C:\Users\lucky\Desktop\爬虫+数据\day07\chromedriver.exe')def parse(self, response):#解析五个板块对应的页面连接li_list = response.xpath('//*[@id="index2016_wrap"]/div[1]/div[2]/div[2]/div[2]/div[2]/div/ul/li')indexs = [3,4,6,7,8]for index in indexs:li = li_list[index]#每一个板块的urlmodel_url = li.xpath('./a/@href').extract_first()self.model_urls.append(model_url)#对每一个板块的url发起请求。注意:请求成功后获取的响应对象中存储的响应数据是不包含新闻标题数据(动态加载)yield scrapy.Request(url=model_url,callback=self.parse_title)#是用来解析每一个板块页面中的新闻标题def parse_title(self,response):#response是不满足需求,因为该response中没有包含动态加载出来的新闻标题数据div_list = response.xpath('/html/body/div/div[3]/div[4]/div[1]/div/div/ul/li/div/div')for div in div_list:new_title = div.xpath('.//div[@class="news_title"]/h3/a/text()').extract_first()item = WangyiproItem()item['title'] = new_titledetail_url= div.xpath('.//div[@class="news_title"]/h3/a/@href').extract_first()#对新闻详情页发起请求,获取新闻内容yield scrapy.Request(detail_url,callback=self.parse_detail,meta={'item':item})#用来解析新闻详情页中的新闻内容(不是动态加载)def parse_detail(self,response):content = response.xpath('//*[@id="endText"]//text()').extract()content = ''.join(content)item = response.meta['item']item['content'] = contentyield item#程序全部结束的时候被调用def closed(self,spider):print('结束爬虫!!!')self.bro.quit()

案例演示

CrawlSpider类

创建crawlspider蜘蛛命令:

scrapy genspider -t crawl yangguang www.xxx.com

class scrapy.spiders.CrawlSpider:爬取一般网站的常用Spider。定义一些规则来跟进链接的方便机制。方法和属性:
rules:包含一个或多个Rule对象的列表。如多个Rule匹配了相同链接,第一个被使用。
parse_start_url(response):当start_urls的请求返回时调用此方法。分析最初的返回值并返回Item对象或者Request或包含二者的可迭代容器。

爬取规则(Rule)

class scrapy.spiders.Rule(link_extractor, callback=None, cb_kwargs=None, follow=None, process_links=None, process_request=None)
参数:
link_extractor:LinkExtractor对象,定义了如何从页面提取链接。
callback:可调用对象或字符串,如果是字符串,Spider中同名的函数被调用。从link_extractor中每次获取到链接时调用。接受的参数为Repsonse,返回Item对象或者Request或包含二者的可迭代容器。编写爬虫规则时,不要使用parse作为回调,因为CrawlSpider使用parse来实现逻辑,如果覆盖了parse,CrawlSpider会运行失败。
cb_kwargs:传递给回调函数的参数字典。
follow:布尔值,从Response提取的链接是否跟进。如果callback为None,follow默认为True,否则默认为False。
process_links:可调用对象或字符串,如果是字符串,Spider中同名的函数被调用。从link_extractor中获取链接列表时调用,主要用来过滤。
process_request:可调用对象或字符串,如果是字符串,Spider中同名的函数被调用。提取到每个Request时调用,返回Request或None,用来过滤Request。

CrawlSpider配合Rule的例子:

import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractorclass MySpider(CrawlSpider):name = 'example.com'allowed_domains = ['example.com']start_urls = ['http://www.example.com']rules = (# 提取匹配 'category.php',但不匹配'subsection.php'的链接,并跟进链接。# 没有callback,意味着follow的默认值为TrueRule(LinkExtractor(allow=('category\.php', ), deny=('subsection\.php', ))),# 提取匹配'item.php'的链接,并用parse_item这个方法来处理Rule(LinkExtractor(allow=('item\.php', )), callback='parse_item'),)def parse_item(self, response):  # TODOitem = scrapy.Item()return item

# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from sunPro.items import SunproItem,SunProDetail# class SunSpider(CrawlSpider):
#     name = 'sun'
#     # allowed_domains = ['www.xxx.com']
#     start_urls = ['http://wz.sun0769.com/index.php/question/questionType?type=4&page=']
#     #连接提取器:
#         #作用:就是根据指定的规则(allow:正则)进行连接的提取
#     link = LinkExtractor(allow=r'type=4&page=\d+')
#     rules = (
#         #规则解析器
#             #作用:负责对连接提取器提取到的连接所对应的页面源码数据进行指定规则(callback)的解析
#         Rule(link, callback='parse_item', follow=True),
#         #follow=True:将连接提取器 继续 作用到 连接提取器提取到的连接 所对应的页面源码中
#     )
#
#     def parse_item(self, response):
#         print(response)#深度爬取
class SunSpider(CrawlSpider):name = 'sun'# allowed_domains = ['www.xxx.com']start_urls = ['http://wz.sun0769.com/index.php/question/questionType?type=4&page=']#连接提取器:#作用:就是根据指定的规则(allow:正则)进行连接的提取link = LinkExtractor(allow=r'type=4&page=\d+')#使用另一个连接提取期去提取详情页的连接link_detail = LinkExtractor(allow=r'question/\d+/\d+\.shtml')rules = (#规则解析器#作用:负责对连接提取器提取到的连接所对应的页面源码数据进行指定规则(callback)的解析Rule(link, callback='parse_item', follow=False),#follow=True:将连接提取器 继续 作用到 连接提取器提取到的连接 所对应的页面源码中Rule(link_detail,callback='parse_detail'))def parse_item(self, response):tr_list = response.xpath('//*[@id="morelist"]/div/table[2]//tr/td/table//tr')for tr in tr_list:title = tr.xpath('./td[2]/a[2]/text()').extract_first()num = tr.xpath('./td[1]/text()').extract_first()item = SunproItem()item['title'] = titleitem['num'] = numyield itemdef parse_detail(self,response):content = response.xpath('/html/body/div[9]/table[2]//tr[1]/td/div[2]/text()').extract_first()num = response.xpath('/html/body/div[9]/table[1]//tr/td[2]/span[2]/text()').extract_first()num = num.split(':')[-1]item = SunProDetail()item['content'] = contentitem['num'] = numyield item

案例演示

XMLFeedSpider类

class scrapy.spiders.XMLFeedSpider:通过迭代各个节点用于分析XML。迭代器可以从iternodes,xml和html中选择。而xml和html要先读取所有DOM,可能有性能问题,一般推荐使用iternodes。而html则能应对错误的XML。方法和属性:
iterator:选用哪种迭代器,iternodes(默认),html,或xml。
itertag:开始迭代的节点名。
namespaces:(prefix, uri)形式的元组组成的列表。定义文档中会被处理的命名空间。register_namespace()被自动调用把prefix和uri生成命名空间。
adapt_response(response):在分析Response前被调用,可以用来修改内容,返回的也是一个Response。
parse_node(response, selector):当节点符合itertag时被调用。返回Item对象或者Request或包含二者的可迭代容器。
process_results(response, results):返回结果(Item或Request)时被调用。用于对结果作最后的处理。返回结果的列表(Item或Request)。

CSVFeedSpider类

class scrapy.spiders.CSVFeedSpider:与XMLFeedSpider相似,只是遍历的不是节点,而是行。方法和属性:
delimiter:分隔符,默认为逗号。
quotechar:每个字段的特征,默认为双引号。
headers:用来提取字段的行的列表。
parse_row(response, row):row是一个字典,键为提供的或检测出来的header。可以覆盖adapt_response和process_results来进行前处理和后处理。

SitemapSpider类

class scrapy.spiders.SitemapSpider:通过Sitemaps来发现爬取的URL。支持嵌套的sitemap,并能从robots.txt中获取sitemap的URL。方法和属性:
sitemap_urls:sitemap的URL列表,也可以是robots.txt。
sitemap_rules:(regex, callback)形式的元组列表。regex是匹配sitemap提供的URL的正则表达式。callback指定匹配后用于处理的函数。
sitemap_follow:用于匹配要跟进的sitemap的正则表达式的列表。默认情况所有sitemap都跟进。
sitemap_alternate_links:当一个URL有可选链接时,是否跟进。
sitemap_filter(entries):过滤函数,可以覆盖它来基于sitemap入口的属性来选择它们。

转载于:https://www.cnblogs.com/songzhixue/p/11330777.html

scrapy框架之spider相关推荐

  1. python spider怎么用_python爬虫入门(七)Scrapy框架之Spider类

    Spider类 Spider类定义了如何爬取某个(或某些)网站.包括了爬取的动作(例如:是否跟进链接)以及如何从网页的内容中提取结构化数据(爬取item). 换句话说,Spider就是您定义爬取的动作 ...

  2. scrapy框架 crawl spider 爬取.gif图片

    创建项目: scrapy startproject qiumeimei 建立爬虫应用: scrapy genspider -t crawl meimei www.qiumeimei.com 爬虫文件 ...

  3. python pipeline框架_爬虫(十六):Scrapy框架(三) Spider Middleware、Item Pipeline|python基础教程|python入门|python教程...

    https://www.xin3721.com/eschool/pythonxin3721/ 1. Spider Middleware Spider Middleware是介入到Scrapy的Spid ...

  4. 爬虫Spider 08 - chromedriver设置无界面模式 | selenium - 键盘操作 | 鼠标操作 | 切换页面 | iframe子框架 | scrapy框架

    文章目录 Spider 07回顾 cookie模拟登陆 三个池子 selenium+phantomjs/chrome/firefox Spider 08 笔记 chromedriver设置无界面模式 ...

  5. 使用Scrapy框架爬取88读书网小说,并保存本地文件

    Scrapy框架,爬取88读书网小说 链接: 88读书网 源码 工具 python 3.7 pycharm scrapy框架 教程 spider: # -*- coding: utf-8 -*- im ...

  6. Python爬虫实战之二 - 基于Scrapy框架抓取Boss直聘的招聘信息

    Python爬虫实战之三 - 基于Scrapy框架抓取Boss直聘的招聘信息 ---------------readme--------------- 简介:本人产品汪一枚,Python自学数月,对于 ...

  7. python spider 安装_Python爬虫(11):Scrapy框架的安装和基本使用

    大家好,本篇文章我们来看一下强大的Python爬虫框架Scrapy.Scrapy是一个使用简单,功能强大的异步爬虫框架,我们先来看看他的安装. Scrapy的安装 Scrapy的安装是很麻烦的,对于一 ...

  8. Spider Scrapy 框架爬虫

    scrapy 是一款常用的爬虫框架,可以实现分布式爬虫和高性能的爬虫 scrapy 框架的创建实在cmd命令行下进行的: 首先要在命令行下转到你要创建的文件夹下: cd 目标文件夹路径 创建的是一个工 ...

  9. 32-CrawlSpider类爬虫与Spider类爬虫比较-【都是基于Scrapy框架】

    任务:爬取"阳光热线问政平台的每个投诉信息(标题.编号.内容.链接)"    要点:涉及翻页 比较:这两种方法都可以完成任务 方法一使用CrawlSpider类,其中涉及Rule来 ...

  10. Python爬虫5.3 — scrapy框架spider[Request和Response]模块的使用

    Python爬虫5.3 - scrapy框架spider[Request和Response]模块的使用 综述 Request对象 scrapy.Request()函数讲解: Response对象 发送 ...

最新文章

  1. LTE SIB1时频资源
  2. 报告!插件×元宵来啦
  3. basename函数使用
  4. 英语语法---句子成分总结
  5. 深入浅出之虚函数原理篇(笔记三)
  6. 深入浅出不可思议的中文分词技术
  7. python中异或运算_python – 基于ID列表有效计算XOR(^)校验和的方法
  8. 只有在配置文件或 Page 指令中将 enableSessionState”的异常解决办法
  9. 【Interfacenavigation】按钮(29)
  10. javascript实现浏览器窗口传递参数
  11. React 组件生命周期详解
  12. 一文搞懂CSS 3D动画效果
  13. MySql NTERVAL函数
  14. MobaXterm连接局域网的虚拟机
  15. Python笔记-pyautogui 图片定位
  16. Python变量与字符串
  17. UL测试报告办理流程,UL1017测试范围有那些?
  18. 使用spool导出数据
  19. 经验分享——本科非技术女
  20. 服务器安装配置elasticsearch,kibana,IK分词器和拼音分词器,集群搭建教程

热门文章

  1. cpuz测试分数天梯图_2019年CPU单核跑分天梯图V1.22版(190712)
  2. Gradle - 简介
  3. python遍历字母_如何遍历字母表?
  4. 基于Java+Swing+Mysql酒店客房预订管理系统设计
  5. 酒店订房系统 java_javaweb酒店客房预订系统
  6. C语言中%d,%o,%f,%e,%x的意义
  7. Fabric CA源码和镜像编译
  8. Ubuntu20.04下安装nvidia驱动
  9. mkv转mp4,mkv转换mp4格式
  10. 【Python】遗传算法求解二元函数最值