目标任务:爬取腾讯社招信息,需要爬取的内容为:职位名称,职位的详情链接,职位类别,招聘人数,工作地点,发布时间。

一、预备基础

1、Scrapy简介

Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛,可用于数据挖掘、监测和自动化测试。

Scrapy 使用了 Twisted 异步网络库来处理网络通讯,可以加快我们的下载速度,不用自己去实现异步框架,并且包含了各种中间件接口,可以灵活的完成各种需求。

网站:

  • 官网
  • 中文维护站点

2、Scrapy架构

Scrapy主要包括了以下组件:

  • 引擎(Scrapy): 用来处理整个系统的数据流处理, 触发事务(框架核心);
  • 调度器(Scheduler): 用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址;
  • 下载器(Downloader): 用于下载网页内容, 并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的);
  • 爬虫(Spiders): 爬虫是主要干活的, 用于从特定的网页中提取自己需要的信息, 即所谓的实体(Item)。用户也可以从中提取出链接,让Scrapy继续抓取下一个页面;
  • 项目管道(Pipeline): 负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。
  • 下载器中间件(Downloader Middlewares): 位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。
  • 爬虫中间件(Spider Middlewares): 介于Scrapy引擎和爬虫之间的框架,主要工作是处理蜘蛛的响应输入和请求输出。
  • 调度中间件(Scheduler Middewares): 介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。

3、运行流程

  • 首先,引擎从调度器中取出一个链接(URL)用于接下来的抓取;
  • 引擎把URL封装成一个请求(Request)传给下载器,下载器把资源下载下来,并封装成应答包(Response);
  • 然后,爬虫解析Response
  • 若是解析出实体(Item),则交给实体管道进行进一步的处理。
  • 若是解析出的是链接(URL),则把URL交给Scheduler等待抓取

4、安装

pip install Scrapy

5、Scrapy项目目录介绍

新建一个Scrapy项目,名称为 Test

scrapy startproject Test

则项目目录结构如下:

Test
├── scrapy.cfg
└── Test├── __init__.py├── items.py├── pipelines.py├── settings.py└── spiders└── __init__.py
  • scrapy.cfg :项目的配置文件
  • Test/ :项目的Python模块,将会从这里引用代码
  • Test/items.py :项目的目标文件
  • Test/pipelines.py :项目的管道文件
  • Test/settings.py :项目的设置文件
  • Test/spiders/ :存储爬虫代码目录

二、Scrapy爬取腾讯社招信息

一般的爬虫步骤:

  • 新建项目 (scrapy startproject xxx):新建一个新的爬虫项目
  • 明确目标(编写 items.py:定义提取的结构化数据
  • 制作爬虫(spiders/xxspider.py:制作爬虫开始爬取网页,提取出结构化数据
  • 存储内容(pipelines.py:设计管道存储爬取内容

1、创建Scrapy项目

scrapy startproject Tencent
cd Tencent

2、编写item.py文件

根据需要爬取的内容定义爬取字段,因为需要爬取的内容为:职位名称,职位的详情链接,职位类别,招聘人数,工作地点,发布时间。

# -*- coding: utf-8 -*-
import scrapy# Define here the models for your scraped items
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.htmlclass TencentItem(scrapy.Item):# define the fields for your item here like:# 职位名positionname = scrapy.Field()# 详情连接positionlink = scrapy.Field()# 职位类别positionType = scrapy.Field()# 招聘人数peopleNum = scrapy.Field()# 工作地点workLocation = scrapy.Field()# 发布时间publishTime = scrapy.Field()

3、编写spider文件

使用命令创建一个基础爬虫类:

scrapy genspider tencentPostion "tencent.com"

其中,tencentPostion为爬虫名,tencent.com为爬虫作用范围。

执行命令后会在 Tencent\spiders 文件夹中创建一个tencentPostion.py的文件,现在开始对其编写:

# -*- coding: utf-8 -*-
import scrapy
from Tencent.items import TencentItemclass TencentpostionSpider(scrapy.Spider):"""功能:爬取腾讯社招信息"""# 爬虫名name = 'tencentPostion'# 爬虫作用范围allowed_domains = ['tencent.com']url = 'https://hr.tencent.com/position.php?&start='offset = 0# 起始urlstart_urls = [url + str(offset)]def parse(self, response):for each in response.xpath("//tr[@class='even'] | //tr[@class='odd']"):# 初始化模型对象item = TencentItem()item['positionname'] = each.xpath("./td[1]/a/text()").extract()[0]item['positionlink'] = each.xpath("./td[1]/a/@href").extract()[0]if len(each.xpath("./td[2]/text()").extract()) > 0:item['positionType'] = each.xpath('./td[2]/text()').extract()[0]else:item['positionType'] = "None"item['peopleNum'] = each.xpath("./td[3]/text()").extract()[0]item['workLocation'] = each.xpath("./td[4]/text()").extract()[0]item['publishTime'] = each.xpath("./td[5]/text()").extract()[0]yield itemif self.offset < 2000:self.offset += 10# 每次处理完一页的数据之后,重新发送下一页页面请求# self.offset自增10,同时拼接为新的url,并调用回调函数self.parse处理Responseyield scrapy.Request(self.url + str(self.offset), callback=self.parse, dont_filter=True)

遇到的问题:
1、[scrapy] DEBUG:Filtered duplicate request:<GET:xxxx>-no more duplicates will be shown——不会显示更多重复项([参考](https://blog.csdn.net/sinat_41701878/article/details/80302357))

其实这个的问题是,CrawlSpider结合LinkExtractor\Rule,在提取链接与发链接的时候,出现了重复的连接,重复的请求,出现这个DEBUG
或者是yield scrapy.Request(xxxurl,callback=self.xxxx)中有重复的请求

其实scrapy自身是默认有过滤重复请求的,让这个DEBUG不出现,可以有 dont_filter=True,在Request中添加可以解决:

yield scrapy.Request(xxxurl,callback=self.xxxx,dont_filter=True)

4、编写pipelines文件

# -*- coding: utf-8 -*-# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html
import jsonclass TencentPipeline(object):""" 功能:保存item数据 """def __init__(self):self.filename = open("tencent.json", "wb+")def process_item(self, item, spider):text = json.dumps(dict(item), ensure_ascii=False) + ",\n"self.filename.write(text.encode("utf-8"))return itemdef close_spider(self, spider):self.filename.close()

Q、TypeError: write() argument must be str, not bytes
情况:使用open打开文件的时候出现了下面的错误。
因为存储方式默认是二进制方式,所以使用二进制方式打开文件。

self.filename = open("tencent.json", "wb+")

5、setting文件设置

# 设置请求头部,添加url
DEFAULT_REQUEST_HEADERS = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;",'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
}# 设置item——pipelines
ITEM_PIPELINES = {'tencent.pipelines.TencentPipeline': 300,
}

6、执行程序

scrapy crawl tencentPosition

其中,tencentPosition为爬虫名

运行结果如下:

三、使用CrawlSpider类

# 创建项目
scrapy startproject TencentSpider
cd TencentSpider# 进入项目目录下,创建爬虫文件
scrapy genspider -t crawl tencent tencent.com

item.py等文件不变,主要是爬虫文件(TencentSpider\spider\tencent.py)的编写

# -*- coding: utf-8 -*-
import scrapy
# 导入链接规则匹配类,用来提取符合规则的连接
from scrapy.linkextractors import LinkExtractor
# 导入CrawlSpider类和Rule
from scrapy.spiders import CrawlSpider, Rule
from TencentSpider.items import TencentItemclass TencentSpider(CrawlSpider):name = 'tencent'allowed_domains = ['hr.tencent.com']start_urls = ['https://hr.tencent.com/position.php?&start=0#a']# Response里链接的提取规则,返回的符合匹配规则的链接匹配对象的列表pagelink = LinkExtractor(allow=("start=\d+"))rules = (# 获取这个列表里的链接,依次发送请求,并且继续跟进,调用指定回调函数处理Rule(pagelink, callback='parseTencent', follow=True),)# 指定的回调函数def parseTencent(self, response):for each in response.xpath("//tr[@class='even'] | //tr[@class='odd']"):item = TencentItem()item['positionname'] = each.xpath("./td[1]/a/text()").extract()[0]item['positionlink'] = each.xpath("./td[1]/a/@href").extract()[0]if len(each.xpath("./td[2]/text()").extract()) > 0:item['positionType'] = each.xpath('./td[2]/text()').extract()[0]else:item['positionType'] = "None"item['peopleNum'] = each.xpath("./td[3]/text()").extract()[0]item['workLocation'] = each.xpath("./td[4]/text()").extract()[0]item['publishTime'] = each.xpath("./td[5]/text()").extract()[0]yield item

【爬虫】Scrapy爬取腾讯社招信息相关推荐

  1. 网络爬虫--17.【BeautifuSoup4实战】爬取腾讯社招

    文章目录 一.要求 二.代码示例 一.要求 以腾讯社招页面来做演示:http://hr.tencent.com/position.php?&start=10#a 使用BeautifuSoup4 ...

  2. 爬虫 spider08——爬取腾讯娱乐新闻【使用redis去重】

    根据 爬虫 spider07--爬取腾讯娱乐新闻 https://blog.csdn.net/qq_41946557/article/details/102566143 进行修改! 代码: impor ...

  3. Python爬虫 - scrapy - 爬取妹子图 Lv1

    0. 前言 这是一个利用python scrapy框架爬取网站图片的实例,本人也是在学习当中,在这做个记录,也希望能帮到需要的人.爬取妹子图的实例打算分成三部分来写,尝试完善实用性. 系统环境 Sys ...

  4. Scrapy爬取当当网的商品信息存到MySQL数据库

    Scrapy爬取当当网的商品信息存到MySQL数据库 Scrapy 是一款十分强大的爬虫框架,能够快速简单地爬取网页,存到你想要的位置.经过两天的摸索,终于搞定了一个小任务,将当当网的商品信息爬下来存 ...

  5. python爬取2019年计算机就业_2019年最新Python爬取腾讯招聘网信息代码解析

    原标题:2019年最新Python爬取腾讯招聘网信息代码解析 前言 初学Python的小伙们在入门的时候感觉这门语言有很大的难度,但是他的用处是非常广泛的,在这里将通过实例代码讲解如何通过Python ...

  6. Python+Scrapy爬取腾讯新闻首页所有新闻及评论

    前言 这篇博客写的是实现的一个爬取腾讯新闻首页所有的新闻及其所有评论的爬虫.选用Python的Scrapy框架.这篇文章主要讨论使用Chrome浏览器的开发者工具获取新闻及评论的来源地址. Chrom ...

  7. python爬取豆瓣电影top250_Python爬虫 - scrapy - 爬取豆瓣电影TOP250

    0.前言 新接触爬虫,经过一段时间的实践,写了几个简单爬虫,爬取豆瓣电影的爬虫例子网上有很多,但都很简单,大部分只介绍了请求页面和解析部分,对于新手而言,我希望能够有一个比较全面的实例.所以找了很多实 ...

  8. python爬百度新闻_13、web爬虫讲解2—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息...

    crapy爬取百度新闻,爬取Ajax动态生成的信息,抓取百度新闻首页的新闻rul地址 有多网站,当你浏览器访问时看到的信息,在html源文件里却找不到,由得信息还是滚动条滚动到对应的位置后才显示信息, ...

  9. python爬虫scrapy爬取新闻标题及链接_python爬虫框架scrapy爬取梅花网资讯信息

    原标题:python爬虫框架scrapy爬取梅花网资讯信息 一.介绍 本例子用scrapy-splash爬取梅花网(http://www.meihua.info/a/list/today)的资讯信息, ...

最新文章

  1. 上手机器学习,从搞懂这十大经典算法开始
  2. 神策数据荣膺“2017 年度最受欢迎企业服务商 Top 10”
  3. 《Advanced Data Structures》读书笔记
  4. sqlsever使用charindex查询中文字符返回固定值_10个MySQL使用技巧及30个搜索优化方法...
  5. number five
  6. FreeRTOS移植到STM32F103
  7. 传统到敏捷的转型中,谁更适合做Scrum Master?
  8. win10搭建Linux子系统,win10中搭建Linux子系统
  9. ffmpeg处理RTMP流媒体的命令大全
  10. 2021-10-28 ACWING826 单链表
  11. 【小窍门tip】oracle sequence 修改增量值
  12. Android全局修改字体大小,Android 应用全局字体调节或禁止随系统字体大小更改
  13. Windows查看电脑ip地址方法(用于连接远程桌面)
  14. Mac效率神器Alfred4以及常用Workflow【文末有福利】
  15. Ijkplayer播放视频(支持AVI格式的视频)
  16. Ubuntu16.04 安装字体库
  17. 【面试题笔记-Java】MySQL数据库、索引、MVCC等知识点(自己整理)
  18. ubuntu如何关联qq邮箱(亲测可用)
  19. 大白菜PE怎么备份还原系统?
  20. Function和function有什么区别

热门文章

  1. Zookeeper 服务注册中心
  2. qpid java_AMQP与QPID简介
  3. 零压力学python_《零压力学Python》 之 第一章知识点归纳
  4. mysql vpformysql引擎_MySQL InnoDB引擎B+树索引简单整理说明
  5. qml mousearea 点击其他地方_Qml 快速使用
  6. java 搭建企业应用框架_溯源微服务开发体系:一位Java开发者的转型思考
  7. windows使用glade2开发gtk程序
  8. 乐视html5,乐视杨永强:Letv Store为HTML5开发者带来新机遇
  9. python随机生成k个不重复的随机数_python 生成不重复的随机数的代码
  10. android 获取控件高度_安卓开发入门教程UI控件_ImageView