首先,在教程(二)(http://blog.csdn.net/u012150179/article/details/32911511)中,研究的是爬取单个网页的方法。在教程(三)(http://blog.csdn.net/u012150179/article/details/34441655)中,讨论了Scrapy核心架构。现在在(二)的基础上,并结合在(三)中提到的爬取多网页的原理方法,进而进行自动多网页爬取方法研究。

并且,为了更好的理解Scrapy核心架构以及数据流,在这里仍采用scrapy.spider.Spider作为编写爬虫的基类。

首先创建project:

[python]  view plain copy
  1. scrapy startproject CSDNBlog

一. items.py编写

在这里为清晰说明,只提取文章名称和文章网址。

[python]  view plain copy
  1. # -*- coding:utf-8 -*-
  2. from scrapy.item import Item, Field
  3. class CsdnblogItem(Item):
  4. """存储提取信息数据结构"""
  5. article_name = Field()
  6. article_url = Field()

二. pipelines.py编写

[python]  view plain copy
  1. import json
  2. import codecs
  3. class CsdnblogPipeline(object):
  4. def __init__(self):
  5. self.file = codecs.open('CSDNBlog_data.json', mode='wb', encoding='utf-8')
  6. def process_item(self, item, spider):
  7. line = json.dumps(dict(item)) + '\n'
  8. self.file.write(line.decode("unicode_escape"))
  9. return item

其中,构造函数中以可写方式创建并打开存储文件。在process_item中实现对item处理,包含将得到的item写入到json形式的输出文件中。

三. settings.py编写

对于setting文件,他作为配置文件,主要是至执行对spider的配置。一些容易被改变的配置参数可以放在spider类的编写中,而几乎在爬虫运行过程中不改变的参数在settings.py中进行配置。

[python]  view plain copy
  1. # -*- coding:utf-8 -*-
  2. BOT_NAME = 'CSDNBlog'
  3. SPIDER_MODULES = ['CSDNBlog.spiders']
  4. NEWSPIDER_MODULE = 'CSDNBlog.spiders'
  5. #禁止cookies,防止被ban
  6. COOKIES_ENABLED = False
  7. ITEM_PIPELINES = {
  8. 'CSDNBlog.pipelines.CsdnblogPipeline':300
  9. }
  10. # Crawl responsibly by identifying yourself (and your website) on the user-agent
  11. #USER_AGENT = 'CSDNBlog (+http://www.yourdomain.com)'

这里将COOKIES_ENABLED参数置为True,使根据cookies判断访问的站点不能发现爬虫轨迹,防止被ban。

ITEM_PIPELINES类型为字典,用于设置启动的pipeline,其中key为定义的pipeline类,value为启动顺序,默认0-1000。

四. 爬虫编写

爬虫编写始终是重头戏。原理是分析网页得到“下一篇”的链接,并返回Request对象。进而继续爬取下一篇文章,直至没有。

上码:

[python]  view plain copy
  1. #!/usr/bin/python
  2. # -*- coding:utf-8 -*-
  3. # from scrapy.contrib.spiders import  CrawlSpider,Rule
  4. from scrapy.spider import Spider
  5. from scrapy.http import Request
  6. from scrapy.selector import Selector
  7. from CSDNBlog.items import CsdnblogItem
  8. class CSDNBlogSpider(Spider):
  9. """爬虫CSDNBlogSpider"""
  10. name = "CSDNBlog"
  11. #减慢爬取速度 为1s
  12. download_delay = 1
  13. allowed_domains = ["blog.csdn.net"]
  14. start_urls = [
  15. #第一篇文章地址
  16. "http://blog.csdn.net/u012150179/article/details/11749017"
  17. ]
  18. def parse(self, response):
  19. sel = Selector(response)
  20. #items = []
  21. #获得文章url和标题
  22. item = CsdnblogItem()
  23. article_url = str(response.url)
  24. article_name = sel.xpath('//div[@id="article_details"]/div/h1/span/a/text()').extract()
  25. item['article_name'] = [n.encode('utf-8') for n in article_name]
  26. item['article_url'] = article_url.encode('utf-8')
  27. yield item
  28. #获得下一篇文章的url
  29. urls = sel.xpath('//li[@class="next_article"]/a/@href').extract()
  30. for url in urls:
  31. print url
  32. url = "http://blog.csdn.net" + url
  33. print url
  34. yield Request(url, callback=self.parse)

慢慢分析:

(1)download_delay参数设置为1,将下载器下载下一个页面前的等待时间设置为1s,也是防止被ban的策略之一。主要是减轻服务器端负载。

(2)从response中抽取文章链接与文章题目,编码为utf-8。注意yield的使用。

(3)抽取“下一篇”的url,由于抽取后缺少http://blog.csdn.net部分,所以补充。两个print只为调试,无实际意义。重点在于

[python]  view plain copy
  1. yield Request(url, callback=self.parse)

也就是将新获取的request返回给引擎,实现继续循环。也就实现了“自动下一网页的爬取”。

五. 执行

[python]  view plain copy
  1. scrapy crawl CSDNBlog

部分存储数据截图:

原创,转载注明:http://blog.csdn.net/u012150179/article/details/34486677

scrapy 简单教程相关推荐

  1. python scrapy 简单教程_python之scrapy入门教程

    看这篇文章的人,我假设你们都已经学会了python(派森),然后下面的知识都是python的扩展(框架). 在这篇入门教程中,我们假定你已经安装了Scrapy.如果你还没有安装,那么请参考安装指南. ...

  2. python scrapy 简单教程_Scrapy的简单使用教程

    在这篇入门教程中,我们假定你已经安装了python.如果你还没有安装,那么请参考安装指南. 首先第一步:进入开发环境,workon article_spider 进入这个环境: 安装Scrapy,在安 ...

  3. linux下scrapy安装教程,linux centos7安装scrapy

    linux centos7安装scrapy 时间:2018-01-02 17:41作者:scrapy中文网阅读: 本scrapy中文教程主要介绍,centos7 linux下scrapy的安装,pyt ...

  4. ASP.NET Core 异常和错误处理 - ASP.NET Core 基础教程 - 简单教程,简单编程

    原文:ASP.NET Core 异常和错误处理 - ASP.NET Core 基础教程 - 简单教程,简单编程 ASP.NET Core 异常和错误处理 上一章节中,我们学习了 ASP.NET Cor ...

  5. idea 从svn导入多个项目_IDEA导入项目简单教程

    该教程用于IDEA初学者导入eclipse项目,或者导入其他已经写好的Java源程序的简单教程. 我们用IDEA打开一个已经写好的项目源文件时,如果没有配置好,就会出现:JDK配置失误报错.程序无法启 ...

  6. scrapy爬虫储存到mysql_详解Python之Scrapy爬虫教程NBA球员数据存放到Mysql数据库

    获取要爬取的URL 爬虫前期工作 用Pycharm打开项目开始写爬虫文件 字段文件items # Define here the models for your scraped items # # S ...

  7. expect简单教程

    expect简单教程 一.概述 expect是Unix系统中用来进行自动化控制和测试的软件工具,由Don Libes制作,作为Tcl脚本语言的一个扩展,应用在交互式软件中如telnet,ftp,Pas ...

  8. ASP.NET Core macOS 环境配置 - ASP.NET Core 基础教程 - 简单教程,简单编程

    ASP.NET Core macOS 环境配置 - ASP.NET Core 基础教程 - 简单教程,简单编程 原文:ASP.NET Core macOS 环境配置 - ASP.NET Core 基础 ...

  9. Git和Github简单教程

    网络上关于Git和GitHub的教程不少,但是这些教程有的命令太少不够用,有的命令太多,使得初期学习的时候需要额外花不少时间在一些当前用不到的命令上. 这篇文章主要的目标是用较少的时间学习Git和Gi ...

最新文章

  1. 机器学习系列14:偏差与方差
  2. 一个人的渺小与微不足道。
  3. 就在刚刚!吴恩达的这门新课程终于开放注册了
  4. 五、性能监视(2)Windows性能日志
  5. Logtail从入门到精通(四):正则表达式Java日志采集实战
  6. hdu 5172 GTY's gay friends(线段树最值)
  7. 如何修改GitHub项目显示语言问题
  8. ubuntu16.04 离线安装docker ce
  9. android安装apk提示版本号不同,android 安装apk 遇到的问题
  10. linux是发展历史,linux发展历史.doc.doc
  11. 面向兑现编程(四):多态
  12. 3.使用SqlCommand执行SQL语句
  13. 学生签到系统java_基于jsp的学生签到-JavaEE实现学生签到 - java项目源码
  14. excel表格分割线一分为二_高效秘技!用EXCEL制作导航页和日志表管理日常工作...
  15. arp: 查看,为主机添加一个arp 表项
  16. 国内宠物保险“不受宠”背后,这门生意该如何做好?
  17. 网易上线短视频创作平台“网易知识公路“
  18. 360cdn能挡住cc攻击_云防CDN是网页CC攻击的克星?cdn集群防御
  19. 王冰玉时代曙光科技 丽江-稻城-理塘-丹巴-康定-成都“中心"穿越小卡片之旅...
  20. 支付宝花呗提前还款————附操作图片

热门文章

  1. 什么是内存颗粒?内存条的构成!
  2. scratch双语教师课件文档手册 1.初识scratch
  3. 赵俊峰内蒙古大学计算机学院,内蒙古大学计算机学院研究生导师:赵俊峰
  4. html文档中strokestyle,HTML5简明教程-1.1.2.HTML5Canvas参考手册 之 笔触strokeStyle
  5. 74HC08四路2输入与门
  6. pwnable-shellshock
  7. 嘉环科技IT管培生面试
  8. 百度地图之添加覆盖物并响应事件
  9. 软件测试实习生(月薪3k-5k)需要具备哪些技能才能找到工作?
  10. keepalived 多节点设置