反爬虫与反反爬虫技术
1.反爬虫技术
首先我们来思考一下,为什么要反爬虫?
- 网络中充斥大量爬虫的情况下,会使得整个网络的数据不可靠。
- 网站在面对高并发爬虫的攻击时,很容易被击溃。
- 版权数据被爬取,对于网站来说是巨大的损失。
基于以上原因,反爬虫技术孕育而生,主要包含以下最常用的反爬技术:
- 封IP
后台对访问进行统计,如果单个IP访问超过阈值,则封锁该IP。 - 封UserAgent
后台对访问进行统计,如果单个UserAgent访问超过阈值,则封锁该UserAgent。 - 封Cookie
后台对访问进行统计,如果单个cookies访问超过阈值,则封锁该cookie. - 设置请求时间间隔
设置请求时间间隔,规避过于频繁的请求访问,避免爬虫短时间爬取大量数据。 - robots.txt协议
robots.txt是一个限制爬虫的规范,该文件是用来声明哪些东西不能被爬取; 设置robots.txt协议,位于robots.txt中的UserAgent不可请求网站数据。 - 验证码验证
发生大量请求时,弹出验证码验证,通过验证方可继续访问。 - JavaScript渲染网页
将重要信息放在网页中但不写入html标签中,而浏览器会自动渲染标签中的js代码,将信息展现在浏览器当中,而爬虫是不具备执行js代码的能力,所以无法将js事件产生的信息读取出来。 - ajax异步传输
访问网页的时候服务器将网页框架返回给客户端,在与客户端交互的过程中通过异步ajax技术传输数据包到客户端,呈现在网页上,爬虫直接抓取的话信息为空。 - 网页iframe框架嵌套
在下载框处再内嵌一个窗口,使得爬虫提取不到内层窗口的数据。
2.反反爬虫技术
有反爬虫技术,就会有反反爬虫技术存在,这是两种相互对抗的技术;这两种技术也在相互对抗中不断发展。
我们在编写爬虫时,要对获取海量的免费数据心怀感恩,而不是恶意攻击网站,这是一种害人害己的形为。
常用的反反爬虫技术有以下这些:
- 降低请求频率
对于基于scrapy框架构建的爬虫,在配置文件settings.py中设置DOWN-LAOD_DELAY即可。
以下代码设置下载延迟时间为4秒,即两次请求间隔4秒。
DWONLOAD_DELAY = 4
或设置RANDOMIZE_DOWNLOAD_DELAY,定义一个随机的请求延迟时间。
RANDOMIZE_DOWNLOAD_DELAY = True
- 修改请求头
- 禁用Cookie
有些网站会通过Cookie来发现爬虫的轨迹,如非特殊需要,禁用Cookie可以切断网站通过Cookie发现爬虫的途径。
对于基于scrapy框架构建的爬虫,在配置文件settings.py中设置COOKIES_ENABLED即可。
#Disable cookies (enabled by default)
COOKIES_ENABLED = False
- 伪装成不同的浏览器
Scrapy自带专门设置User-Agent的中间件UserAgentMiddleware,在爬虫运行中,会自动将User-Agent添加到HTTP请求中,并且可以设置多个浏览器,请求时可以随机添加不同的浏览器。
1.设定浏览器列表。
将浏览器列表定义至settings.py文件中:
MY_USER_AGENT = ["Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NETCLR 1.1.4322; .NET CLR 2.0.50727)", \"Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser;SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)", \"Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; WindowsNT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)", ]
2.在中间件UserAgentMiddleware中从浏览器列表中随机获取一个浏览器。
#导入UserAgentMiddleware组件模块from scrapy.downloadermiddlewares.useragent import UserAgentMiddleware
import random #导入随机模块from qidian_hot.settings import MY_USER_AGENT #导入浏览器列表#定义类QidianHotUserAgentMiddleware,用于设置随机设置user-agent
#继承于UserAgentMiddlewareclass QidianHotUserAgentMiddleware(UserAgentMiddleware):#处理Request请求函数def process_request(self, request, spider):#使用random模块的choice函数从列表MY_USER_AGENT中随机获取一个浏览器类型agent = random.choice(list(MY_USER_AGENT))print("user-agent:", agent) #将User-Agent附加到Reqeust对象的headers中request.headers.setdefault('User-Agent', agent)
3.启用中间件UserAgentMiddleware。
# Enable or disable downloader middlewares
# See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html
DOWNLOADER_MIDDLEWARES = {'qidian_hot.middlewares.QidianHotDownloaderMiddleware': None,'qidian_hot.middlewares.QidianHotUserAgentMiddleware': 100,
}
- 使用HTTP代理服务器
HTTP代理服务器功能就是代理网络用户取获取网络信息,它相当于客户端浏览器和网站服务器之间的信息中转站。
在爬虫中采用大量的随机代理服务器访问某个网站,则该网站很难检测出爬虫。
参考文献
盘点一些网站的反爬虫机质
功能强大的python包(八):Scrapy (网络爬虫框架)
反爬虫与反反爬虫技术相关推荐
- 爬虫厉害?反爬虫技术才是真的牛!
黑马程序员视频库 播妞QQ号:3077485083 传智播客旗下互联网资讯.学习资源免费分享平台 你被爬虫侵扰过吗?爬虫不仅会占用大量的网站流量,造成有真正需求的用户无法进入网站,同时也可能会造成网站 ...
- Python爬虫自学之第(①)篇——爬虫伪装和反“反爬”
有些网站是防爬虫的.其实事实是,凡是有一定规模的网站,大公司的网站,或是盈利性质比较强的网站,都是有高级的防爬措施的.总的来说有两种反爬策略,要么验证身份,把虫子踩死在门口:要么在网站植入各种反爬机制 ...
- python爬虫反爬-爬虫怎么测试反爬?
网站有没有反爬,如果你没有用爬虫抓取过,你是不可能知道的. 就算要测试,你还要尝试不同的delay. 如果设置的 delay 在网站的反爬频率外,那就测不出来. 如果在频率内,那就被封.或者封ip,或 ...
- 爬虫(Spider)与反爬虫(Anti-Spider)
爬虫(Spider),反爬虫(Anti-Spider),反反爬虫(Anti-Anti-Spider),这之间的斗争恢宏壮阔... Day 1 小莫想要某站上所有的电影,写了标准的爬虫(基于HttpCl ...
- Python爬虫:字体反爬处理(猫眼+汽车之家)-2018.10
环境:Windows7 +Python3.6+Pycharm2017 目标:猫眼电影票房.汽车之家字体反爬的处理 -全部文章: 京东爬虫 .链家爬虫.美团爬虫.微信公众号爬虫.字体反爬.Django笔 ...
- 爬虫原理及反爬虫机制以及反爬虫方法的应对策略
爬虫原理及反爬虫机制 关于爬虫 爬虫原理 反爬虫机制 1.检验数据头User-Agent反爬虫机制解析: 2.访问频率限制或检验 3.蜜罐技术 反爬虫机制的应对方法 1.设定Request Heade ...
- Python进阶 │反爬虫和怎样反反爬虫
爬虫.反爬虫和反反爬虫是网络爬虫工作过程中一直伴随的问题. 在现实生活中,网络爬虫的程序并不像之前介绍的爬取博客那么简单,运行效果不如意者十有八九.首先需要理解一下"反爬虫"这个概 ...
- 【Python3爬虫】常见反爬虫措施及解决办法(二)...
[Python3爬虫]常见反爬虫措施及解决办法(二) 这一篇博客,还是接着说那些常见的反爬虫措施以及我们的解决办法.同样的,如果对你有帮助的话,麻烦点一下推荐啦. 一.防盗链 这次我遇到的防盗链,除了 ...
- python爬图片_网络爬虫经验:反爬和反反爬
我想很多人入门python是图片爬虫,就是HTTP请求,保存一下图片,用python实现非常快.网上很多爬虫的教程就讲到这里,实际上很单一,看了跟没看没什么区别,都是找一下网页的规律,然后Beauti ...
- python爬虫常见反爬措施_爬虫常见的反爬措施有哪些
爬虫常见的反爬措施有三种: 1.header头部信息 解决方法: 加User-Agent值: 如果不加header头,部分网站服务器判断不到用户的访问来源,所以会返回一个404错误来告知你是一个爬虫, ...
最新文章
- tabBar 自定义,小程序自定义底部导航栏
- js new 运算符到底做了什么?
- demo15 AlertDialog
- ES6新增语法与内置对象扩展
- 交换机的VACL测试
- iOS自动布局框架-Masonry详解
- Py之matplotlib:python包之matplotlib库图表绘制包的简介、安装、使用方法(matplotlib颜色大全)详细攻略
- 《大话操作系统——做坚实的project实践派》(6)
- php求数组的长度的函数,php如何计算数组长度?
- matlab车辆贪心作业调度,贪心算法-区间调度-Interval Scheduling
- 人人都能学会的python编程教程(基础篇)完整版
- Android实战:手把手实现“捧腹网”APP(三)-----UI实现,逻辑实现
- HDU - 6558/概率dp(从后往前推导)
- 6-第三方库离线安装法
- 好程序员分享24个canvas基础知识小结 1
- 修改双系统启动的名称
- WebCollector 网页正文快速提取
- 使用pgd和fgsm方法进行攻击并使用map方法评估
- 11.3.1越狱后无cydia清除越狱环境重新越狱
- 中国各省所处的经纬度范围