本周又和大家见面了,首先说一下我最近正在做和将要做的一些事情。(我的新书《Python爬虫开发与项目实战》发布了,大家在这里可以看到样章

技术方面的事情:本次端午假期没有休息,正在使用flask开发自己的个人博客框架,之后我的技术教程将会陆续更新flask方面的内容,尽可能的形成一套完整的flask开发教程。之后打算再开通一个微信公众号,自己使用python开发微信公众号后台,给大家提供一些生活上的服务,例如及时提醒一些商家优惠信息跟踪快递,提醒天气等等,大家如果有什么好的想法,可以给我留言,你的点子如果被采用了,将会出现在贡献者名单中。

生活方面的事情:开始重新学习吉他,多了解一些音乐方面的事情,个人感觉自己的艺术细菌滋生的还是蛮快的。尝试去写比较系统的技术文章,由浅入深,力求最后能形成书籍

好了,废话不多说,咱们进入今天的主题。前几篇文章,讲述了scrapy爬取美女图片和代理的内容,因为之前的写的爬取代码,在爬取到1000张图片左右就会被ban,所以咱们今天讲解的是使用VPN + Tor来突破反爬虫机制。

根据scrapy官方文档:http://doc.scrapy.org/en/master/topics/practices.html#avoiding-getting-banned里面的描述,要防止scrapy被ban,主要有以下几个策略。

1.动态设置user agent

2.禁用cookies

3.设置延迟下载

4.使用Google cache

5.使用IP地址池(Tor project、VPN和代理IP)

6.使用Crawlera

一般前三个策略是必须要做的,然后咱们在选择使用代理ip池,就可以绕过绝大部分的网站的反爬虫机制

基于咱们之前写的jiandan_2(https://github.com/qiyeboy/jiandan_2)的代码,咱们进行一下改动,需要写一个中间件。在原有工程的基础上,添加middlewares包,同时在包中写入RandomProxy.py(用来设置代理ip),RandomUserAgent(用来动态设置user agent)。

第一步动态设置user agent:

http请求头中user agent包含了我们使用的浏览器和操作系统的一些信息,很多网站通过判断user agent内容来确定用户的,所以咱们要动态设置user agent,来假装自己是很多用户。来看一下代码:

#coding:utf-8import random'''这个类主要用于产生随机UserAgent'''class RandomUserAgent(object):def __init__(self,agents):self.agents = agents@classmethoddef from_crawler(cls,crawler):return cls(crawler.settings.getlist('USER_AGENTS'))#返回的是本类的实例cls ==RandomUserAgentdef process_request(self,request,spider):request.headers.setdefault('User-Agent', random.choice(self.agents))

user agent的值,我在setting.py中已经设置好了

USER_AGENTS = ["Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)","Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)","Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)","Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)","Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)","Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)","Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)","Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)","Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6","Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1","Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0","Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5","Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20","Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/2.0 Safari/536.11","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER","Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; LBBROWSER)","Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E; LBBROWSER)","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 LBBROWSER","Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E)","Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; QQBrowser/7.0.3698.400)","Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)","Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SV1; QQDownload 732; .NET4.0C; .NET4.0E; 360SE)","Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)","Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E)","Mozilla/5.0 (Windows NT 5.1) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.89 Safari/537.1","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.89 Safari/537.1","Mozilla/5.0 (iPad; U; CPU OS 4_2_1 like Mac OS X; zh-cn) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8C148 Safari/6533.18.5","Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:2.0b13pre) Gecko/20110307 Firefox/4.0b13pre","Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:16.0) Gecko/20100101 Firefox/16.0","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11","Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10"]

第二步 禁用cookie,在setting.py中添加

COOKIES_ENABLED=False

第三步设置延迟下载,在setting.py中添加

DOWNLOAD_DELAY=2

第四步设置代理:

之前爬取的代理,发现稳定性太差,果然是免费提供的,所以我就直接弃用了。自己买了一个VPN(主要是为了FQ使用Tor),然后在配上Tor,就可以形成一个ip地址池。

首先连接上vpn,我买的是一个美国的地址。

然后连接Tor(Tor的安装教程网上太多了)。

由于Tor使用的是sock代理方式(绑定了9050端口),我们的http请求不能直接通过它,所以要使用一个http转sock的代理软件polipo(无需安装)。

配置一下config.sample:

socksParentProxy = "localhost:9050"
socksProxyType = socks5
diskCacheRoot = ""

使用cmd命令运行该目录下的程序:polipo.exe -c config.sample(监听8123端口)

最后咱们在setting.py中添加

HTTP_PROXY ='http://127.0.0.1:8123'#使用Tor

最后看一下RandomProxy.py代码:

#coding:utf-8import randomfrom jiandan import settingsfrom jiandan.db.db_helper import DB_Helper'''这个类主要用于产生随机代理'''class RandomProxy(object):def __init__(self):#初始化一下数据库连接self.db_helper = DB_Helper()self.count =self.db_helper.proxys.count()def process_request(self, request, spider):'''在请求上添加代理:param request::param spider::return:'''# idList = range(1,self.count+1)# id = random.choice(idList)# result = self.db_helper.findOneResult({'proxyId':id})request.meta['proxy'] =settings.HTTP_PROXY

最后运行程序,开始下载。由于Tor网速较慢,下载了3万张图片花了一天左右。。。。

不过没有发生被ban掉的情况。

完整的代码我已经上传到github上:
https://github.com/qiyeboy/jiandan_2
今天的分享就到这里,如果大家觉得还可以呀,记得打赏呦。

作者:qiye
链接:http://www.jianshu.com/p/9159111bcd87
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

Scrapy爬取美女图片第四集 突破反爬虫(上)相关推荐

  1. Scrapy爬取美女图片续集 (原创)

    上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,不过采取了不同的方式和代码实现,对Scrapy的功能进行更深入的运用. 在学习Scra ...

  2. Scrapy爬取美女图片续集

    上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,不过采取了不同的方式和代码实现,对Scrapy的功能进行更深入的运用. 在学习Scra ...

  3. scrapy爬取美女图片

    使用scrapy爬取整个网站的图片数据.并且使用 CrawlerProcess 启动. 1 # -*- coding: utf-8 -* 2 import scrapy 3 import reques ...

  4. 爬取美女图片保存本地与入MySQL库(宅男福利)

    本文详细记录如何爬取美女图片,并将图片下载保存在本地,同时将图片url进行入库.保存在本地肯定是为了没事能拿出来养养眼啊,那入库就是为了定位图片啊,要懂点技术的话,还能搬运搬运做个小图片网站,不为别的 ...

  5. python爬取美女图片的练习

    python 爬取美女图片的练习 主要使用 xpath 定位获取 图片的链接 本次练习使用到os库 ,lmxl库 , requests库 import requests from lxml impor ...

  6. node.js爬取美女图片(一)

    node.js爬取美女图片 一.准备工作 首先找一个美女图片网站,这里我选用的是唯美女生,看起来像一个个人维护的网站. 分析页面结构: 1.主页主体部分就是图集列表: 2.URL的形式为 BaseUr ...

  7. 使用python3爬取美女图片

    给大佬们观赏观赏,爬取美女图片,各位大佬们小心身子哈. #目标:爬取网页所有图片并保存到本地 #目标url = http://www.umei.cc/tags/meishaonv_1.htm impo ...

  8. Scrapy爬取ammmi图片

    Scrapy爬取ammmi图片 相关配置: python version:3.7 IDE:Pycharm environment:windows10 Framework:Scrapy 相关链接: We ...

  9. Python网络爬虫(四):selenium+chrome爬取美女图片

    说明: Python版本:Python IDE:PyCharm chrome版本:我的版本63 chromedriver.exe:因为是模拟浏览器访问,chrome需要再下载一个驱动,具体方式在我的上 ...

  10. scrapy爬取昵图网图片

    一 : 创建scrapy项目 (1) 使用命令创建项目 : scrapy startproject nipic[项目名可以随意] (2) 使用命令创建一个爬虫文件 : scrapy genspider ...

最新文章

  1. 上周新闻回顾:Vista麻烦不断 Office波澜再起(2.26-3.4)
  2. nvidia-smi 实时刷新 实时显示显存使用情况
  3. icmp回复报文_CCNA - Part7:网络层 - ICMP 应该是你最熟悉的协议了
  4. Linux运维系统工程师系列---16
  5. HashTable已经被淘汰了,不要在代码中再使用它
  6. switchyomega插件_CTF|你所关注的CTFer都在用的插件合集【附:XXE补给+CTF训练集】...
  7. linux cat EOF 变量自动解析问题
  8. 计算机文字识别的过程包括哪些步骤,电脑上的文字识别工具怎么使用?
  9. java 线程安全问题_java线程安全问题原因及解决办法
  10. 深度学习“四大名著”发布!Python、TensorFlow、机器学习、深度学习四件套!
  11. php自动关闭页面代码,HTML_下载完成后页面不自动关闭的方法,下载完成后页面不自动关闭的 - phpStudy...
  12. oracle tochar fm,oracle的to_char中的fm-Oracle
  13. J-Link RTT Viewer 的各种不爽以及解决方案
  14. SQLite数据库读取
  15. 误删Windows账户恢复方案
  16. 锻造宝剑!如何用一款手机打造一个移动渗透工具箱??
  17. 危化品柜颜色如何区分?
  18. c++ int 的范围
  19. 计算机网络期末复习(已完结)
  20. Mac使用技巧:如何解决键盘被锁的问题?

热门文章

  1. ThingsBoard 开源技术体系总览
  2. HDB3码和AMI码通过Matlab实现编码和解码
  3. pta编程题c语言答案,PTA选择题答案_pta题库答案,pta答案
  4. 2020-2023保时捷Taycan维修手册电路图技术培训手册用户手册电动汽车技术资料
  5. ATmega128定时器
  6. Golang Web框架性能对比
  7. 流媒体服务器之 ZLMediaKit介绍
  8. DroidCam通过网络调用手机摄像头的方法二
  9. win7下安装vc6.0(sp5,sp6补丁安装)
  10. 基于单片机的GPS开发 (five) GPS数据获取解析思路