开坑个新系列,主要面向新手,老司机可以忽略。
这个系列内的文章将会让你知道如何做到让你写的爬虫在运行的时候速度能像火箭一样快!
很多初学爬虫的朋友对于这方面的知识似乎是空白的,甚至还有一些在爬虫岗位上工作了一两年的人也搞不清楚在不使用爬虫框架的情况下,如何写出一个速度足够快的爬虫,而网上的文章大多是基于多进程/Gevent来写的,代码看起来就极其复杂,甚至有些人抄来抄去连多进程和多线程没搞清楚,如果是一个想学习这方面知识的人看到了这样的文章,多半会一脸懵逼。
综上所述,为了让关注我公众号的新手朋友们能快速掌握这些技巧,这个系列就这样诞生了~

话不多说,我们正式开始。在提升爬虫的速度这方面,最基础、最有效、最直接的操作是什么呢?没错,就是并发请求,如果你的爬虫整个逻辑是顺序执行的,请求的时候永远不会并发,那么你就会遇到像他这样的情况:《小白写了个壁纸的爬虫,能跑起来,但是感觉很慢,不知道怎么回事,请大佬指点》。

上面这是我昨天刷V2的时候看到的一个帖子,楼主的代码内容简单概括一下就完全是顺序执行的,每下载一个图片都需要等待当前这个图片下载完了才能继续下载下一个,这样子做当然会非常慢了!这篇文章就拿他的代码作为样例,在原来的基础上进行一些调整,从而让他写的这个爬虫的运行速度能从龟爬变成像坐火箭一样快!


首先,我们需要知道什么是并发,这里的并发指的是“并行发送请求”,意思就是一次性发出多个请求,从而达到节省时间的效果!那么并发和不并发的区别在哪呢?简单来说就是这样子的:

把爬虫比喻成工人,在不并发的情况下,一个工人一次只能做一件事情,所以必须要下载完一个图片才能继续下载下一个。

而在并发的情况下,就有很多个工人一起在干活,每个工人都被分配了一件事情做,所以可以同时下载多个图片,速度自然就快了很多。

当然,上面说的这个例子只是从一个宏观的角度上来看并发,实际在做的时候要让你的爬虫能并发请求的方式是分为多线程、多进程、协程三种的,并不是每一种方式在运行时的效果都像上面说的这样,这里先不做深入探讨,因为这不是本文的重点。我们现在只需要知道,只要能让爬虫并发请求,就能同时下载多个图片,让速度快得飞起,这样就够了。


那么我们要用上面说的三种方式里的哪一种来实现并发请求呢?这还用问吗?当然是选择代码最简单、改动最小,并且最容易看懂的协程啊!在Python3.4之后Python就引入了一个叫做asyncio的库,原生支持了异步IO,而在3.5之后Python又支持了asyncawait这两个语法,使得写异步代码可以像写同步代码一样简单易读。

刚刚又提到了两个词,同步和异步,这两个词的含义其实就跟上面的并发差不多,同步代码就是顺序执行的,而异步则不是,这里同样不做深入探讨,先知道有这么个东西就行了。

看到这里肯定会有人开始有疑问了,虽然前面说我们要用协程来实现并发请求,但是后面说的却是什么Python支持原生异步,那么这个异步跟协程的关系又是什么呢?

其实很简单,协程可以让你写异步代码的时候能像写同步代码一样简单,在Python3中写协程代码的核心语法就是asyncawait这两个,举个简单的例子吧:

def func():print(1)time.sleep(10)print(2)

这是一段普通的函数,它属于同步代码,里面的time.sleep是普通函数,也属于同步代码。

async def func():  # 调用协程函数的那个函数也需要是一个协程函数print(1)await asyncio.sleep(10)  # 调用协程函数的时候要在前面加awaitprint(2)

而这是一个协程函数,它属于异步代码,里面的asyncio.sleep是协程函数,也属于异步代码。

它们的区别显而易见,用协程来写异步代码,除了需要换成异步的库以外,就只是多了个asyncawait而已,是不是非常简单?


那么我们在了解了怎么写协程代码之后,就能开始优化那段慢成龟速的代码了吗?答案是否定的,那段代码中使用了requests库进行网络请求,而requests是一个同步库,不能在异步环境下使用;同样,文件操作用的openfile.write也是同步的,也不能在异步环境下使用。

所以在开始之前我们还需要了解两个库,分别是aiohttp和aiofiles,aiohttp是一个异步网络请求库,而aiofiles是一个异步文件操作库。(aiofiles是基于线程池实现的,并不是真正的原生异步,但问题不大,不影响使用)

切记,异步代码不能与同步代码混用,否则如果同步代码耗时过长,异步代码就会被阻塞,失去异步的效果。而网络请求和文件操作是整个流程中最耗时的部分,所以我们必须使用异步的库来进行操作!否则就白搞了!

好了,先来看看aiohttp的用法吧,官方文档上的示例大致如下:

async with aiohttp.ClientSession() as session:async with session.get(url) as resp:result = await resp.text()

是不是觉得很麻烦,不像requests库那么方便?还觉得两层async with很丑?有没有办法让它像requests库一样方便呢?

答案是有的,有一个叫作aiohttp-requests的库,它能让上面的这段代码变成这样:

resp = await requests.get(url)
result = await resp.text()

清爽多了对吧?我们等下就用它了!记得装这个库的前提是要先装aiohttp哦!

然后我们来看看aiofiles的用法,官方文档上的示例如下:

async with aiofiles.open('filename', mode='r') as f:contents = await f.read()
print(contents)

嗯,这个用起来就和用同步代码操作文件差不多了,没啥可挑剔的,直接用就完事了。

提示:aiohttp-requests默认是创建并使用了session的,对于一些需要不保留Cookie进行请求的场景需要自己实例化一个Requests类,并指定cookie_jar为aiohttp.DummyCookieJar


了解完了要用的库之后我们就可以开始对贴子中的代码进行魔改了,如果你用的不是Python3.5以上版本的话需要先准备一下环境。除了版本号大于等于3.5的Python以外,你还需要安装以下几个库:

  • aiohttp(异步网络请求库)
  • aiohttp-requests(让aiohttp用起来更方便的库)
  • aiofiles(异步文件操作库)
  • pillow(其实就是PIL库,代码中的图片操作有用到)

执行一下pip install aiohttp aiohttp-requests aiofiles pillow一次性装完,如果存在多个不同版本的Python环境记得区分好。


然后我们打开编辑器,开始改代码,首先调整一下导包的部分,将里面的requests替换成aiohttp-requests,像这样:

然后搜索一下requests,看看哪些地方用到了它。

接着把所有搜到的部分都给改成异步请求的。

同时不要忘了将所有调用过requests.get的函数都变成协程函数。

然后我们把文件操作的部分也换成异步的,使用aiofiles.open代替open

最主要的部分都换好了,接着我们将原先在if __name__ == '__main__':下的代码移到一个新写的协程函数run中,并且将调用前面协程函数的部分都加上await

再导入一下asyncio库,然后在if __name__ == '__main__':下写出这样的代码:

上面这个是Python3.7之后才能用的写法,低于Python3.7要这样写:

现在我们就可以运行一下看看修改后的代码能不能跑通了。

这里报了个错,从错误堆栈中可以看出问题是出在response = await requests.get(url=url, headers=headers)这里的,原因是self.session._request方法没有key为url的参数。这个问题很好解决,只需要将url=url变成url就好了(本来也就没必要这么指定参数写)。将代码中所有用到requests.get并且存在url=url这种写法的都做一下调整:

调整完之后再运行一次就正常了,效果和原先的代码相同。

注意!仅仅是这样并不会让速度发生很大的变化!我们最后还需要将这一堆代码中最耗时且是顺序执行、没有并发请求的部分单独放到一个协程函数中,并且用asyncio.gather来并发调用(由于原本的逻辑较为混乱,这里除了并发请求以外还进行了一些其他的微调,主要是计数和文件路径的部分,无关紧要)。

运行一下看看效果,刚运行起来一瞬间就刷了一排的下载完成,跟修改之前比起来简直是天差地别。

这就是并发请求的威力!我们仅仅是对他原本的代码进行了一些微调,把最耗时的下载图片部分简单粗暴地使用asyncio.gather并发执行了一下,速度就从龟爬变成了像坐火箭一样快!(其实代码中还有很多可以优化的点,这里就不一一拿出来讲了)


最后给大家提个醒:

虽然并发请求非常牛逼,可以让你的爬虫变得飞快,但它也不是不存在任何问题的!

如果你的并发请求数量过大(又称并发数过高),你的爬虫就相当于是在对他人的服务器进行Dos攻击(拒绝服务攻击)了!

举个例子,你在爬一个小网站的时候为了自己爬的速度更快,对并发请求的数量毫无限制,使得你的爬虫一次性发出了几百、上千个请求,但一般的小网站根本扛不住这么高的并发!几乎会在一瞬间就被你的爬虫给打爆掉!试想一下,如果你是站长,看到这样的情形你会怎么想?

如果你不能理解这个例子所产生的效果是什么样的,可以自己搭建一个Web服务,只放一个简单的页面,然后开个几百并发去请求这个页面,这样你就能切身地体会到别人是什么感受了。

所以记住,一定要合理控制并发请求的数量,不要对对方网站造成过大的压力!你给别人留活路,别人才会给你留活路!

最后再留个小作业吧,如何对这个修改后的代码增加一道并发数的限制?在留言区给出你的答案。(提示:可通过搜索引擎查找【aiohttp并发连接数限制】和【python 列表切割】相关的内容)


这个时代各种东西变化太快,而网络上的垃圾信息又很多,你需要有一个良好的知识获取渠道,很多时候早就是一种优势,还不赶紧关注我的公众号并置顶/星标一波~

发送消息“爬虫速度提升之并发请求”到我的公众号【小周码字】即可获得本文代码下载地址~

python3 爬虫例子_如何让你写的爬虫速度像坐火箭一样快【并发请求】相关推荐

  1. 网页爬虫python代码_《用python写网络爬虫》完整版+源码

    原标题:<用python写网络爬虫>完整版+源码 <用python写网络爬虫>完整版+附书源码 本书讲解了如何使用Python来编写网络爬虫程序,内容包括网络爬虫简介,从页面中 ...

  2. python网络爬虫权威指南 豆瓣_豆瓣Python大牛写的爬虫学习路线图,分享给大家!...

    豆瓣Python大牛写的爬虫学习路线图,分享给大家! 今天给大家带来我的Python爬虫路线图,仅供大家参考! 第一步,学会自己安装python.库和你的编辑器并设置好它 我们学习python的最终目 ...

  3. 为什么用python写爬虫_老猿为什么写Python爬虫教程

    对于"爬虫", 或许你只是听说过,或许已经有所了解.无论怎样,你可能有过这样的困惑: + 学了爬虫不知道怎么挣钱? + 技术不知道如何进阶? + 遇到问题不知道找谁交流? 十多年前 ...

  4. python网络爬虫网易云音乐_手把手教你写网络爬虫(1):网易云音乐歌单

    大家好,<手把手教你写网络爬虫>连载开始了!在笔者的职业生涯中,几乎没有发现像网络爬虫这样的编程实践,可以同时吸引程序员和门外汉的注意.本文由浅入深的把爬虫技术和盘托出,为初学者提供一种轻 ...

  5. python网络爬虫教程-教你从零开始学会写 Python 爬虫

    原标题:教你从零开始学会写 Python 爬虫 写爬虫总是非常吸引IT学习者,毕竟光听起来就很酷炫极客,我也知道很多人学完基础知识之后,第一个项目开发就是自己写一个爬虫玩玩. 其实懂了之后,写个爬虫脚 ...

  6. 新手python爬虫代码_新手小白必看 Python爬虫学习路线全面指导

    爬虫是大家公认的入门Python最好方式,没有之一.虽然Python有很多应用的方向,但爬虫对于新手小白而言更友好,原理也更简单,几行代码就能实现基本的爬虫,零基础也能快速入门,让新手小白体会更大的成 ...

  7. python反爬虫机制_盘点一些网站的反爬虫机制

    因为 Python 语法简介以及强大的第三方库,所以我们使用它来制作网络爬虫程序.网络爬虫的用途是进行数据采集,也就是将互联网中的数据采集过来. 网络爬虫的难点其实并不在于爬虫本身.而是网站方为了避免 ...

  8. yield python3 知乎_运维学python之爬虫高级篇(七)scrapy爬取知乎关注用户存入mongodb...

    首先,祝大家开工大吉! 本篇将要介绍的是从一个用户开始,通过抓关注列表和粉丝列表,实现用户的详细信息抓取并将抓取到的结果存储到 MongoDB. 1 环境需求 基础环境沿用之前的环境,只是增加了Mon ...

  9. 手机写python爬虫_零基础开始写Python爬虫心得

    零基础学习爬虫,坑确实比较多,总结如下: 1.环境配置,各种安装包.环境变量,对小白太不友好: 2.缺少合理的学习路径,上来 Python.HTML 各种学,极其容易放弃: 3.Python有很多包. ...

最新文章

  1. fetch 跨域请求
  2. 浅拷贝和深拷贝的应用
  3. 2009-08 台湾印象
  4. get中添加header
  5. java http 返回码_【Java】Http返回状态码
  6. 【文末有福利】量子计算是对计算本质的发现
  7. 学位论文多级标题编号与图表编号
  8. Markdown引用图片,且不使用网上链接的解决方法
  9. 从在浏览器中输入URL到页面渲染出来的完整过程是怎样的?
  10. Spring restTemlate的使用
  11. 安卓游戏时禁止状态栏下拉,如何在Android中禁用通知栏下拉菜单?
  12. ubuntu 下一个神奇的命令--以窗口形式打开某个文件夹
  13. Java开发 明华usbkey_明华驱动官方版下载-明华usbkey数字证书驱动下载v3.0.2420.9 最新版-当易网...
  14. Android开发 入门篇(一)
  15. 深度系统linux deepin如何按装,安装深度Deepin 15.11操作系统的方法
  16. Vue中导出json【基于file-saver】
  17. 百度想成为伟大的金融科技公司?太迟了
  18. 小米pro 笔记本 计算机,【MI/小米笔记本 Pro超极本】MI 小米 笔记本 Pro 15.6英寸 笔记本电脑【报价 价格 评测 怎么样】 -什么值得买...
  19. Linux df命令的使用
  20. 利用Python控制德国Vialux DMD 2021-10-03

热门文章

  1. 地址转换算法 C++实现
  2. CF436F Banners(分块/凸包/单调队列)
  3. newcode Gene Tree 点分治
  4. 牛客挑战赛47 C 条件(Floyd bitset优化)
  5. 字符串匹配(多模式匹配篇)
  6. cf1553D. Backspace
  7. 牛客网 【每日一题】4月10日 二分图染色(弱化版)
  8. 【无码专区5】01串(大讨论+构造)
  9. 8.13模拟:分治二分倍增快速幂
  10. 粉刷木板(ybtoj-单调队列)