转载出处:https://blog.csdn.net/c406495762/article/details/72858983
官方:https://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/tutorial.html
运行平台: Windows

Python版本: Python3.x

IDE: Sublime text3

  • 前言
  • Scrapy框架之初窥门径
    • 1 Scrapy简介
    • 2 Scrapy安装
    • 3 Scrapy基础
      • 31 创建项目
      • 32 Shell分析
    • 4 Scrapy程序编写
      • 41 Spiders程序测试
      • 42 Items编写
      • 43 Settings编写
      • 44 Comic_spider编写
      • 45 Pipelines编写
  • 运行结果
  • 总结

1 前言

如果有人问我,你最喜欢的动漫是什么?我会毫不犹豫地告诉他:《火影忍者》。因为,这是唯一的一部贯穿我小学、初中、高中、大学、研究生生活的动漫。小学五年级的时候,家里的电视安装了机顶盒,那时候的动漫频道还不是清一色的《天线宝宝》、《熊出没》这样的国产动漫。大部分都是日本动漫,《火影忍者》、《海贼王》、《浪客剑心》这样的热血动漫充斥着整个动漫频道。就从那时开始,我走上了追《火影忍者》的道路。虽然,这是一个暴露年龄的事情,可是我还是想说,我也算是一个资深的火影迷了。鸣人的火之意志、鸣人和佐助的羁绊的故事,看得我热血沸腾。初中的时候,我还曾傻傻地学习忍术的结印手势,以为只要学会了结印手势就能放出忍术,现在想想,真的是无忧无虑的童年啊!可能,有朋友会问,《火影忍者》不是已经完结了吗?《火影忍者》是完结了,但是鸣人儿子的故事才刚刚开始,《博人传之火影忍者新时代》正在热播中。因此,我又开始追动漫了,虽然现在不会像儿时那样激动到上蹿下跳,但是我依然喜欢看,现在感觉,继续看火影,更多的是一种情怀吧!

今天的闲话有点多,就此打住,回归正题。为了了解动漫的进展,看相应的漫画是个不错的选择。而KuKu动漫又是免费的试看平台,满足我的需求。奉上URL:http://comic.kukudm.com/

可以看到,这个网站的第一个推荐动漫就是《火影忍者》。这个网站不提供下载功能,但是又很想收藏怎么办?那就用分布式爬虫Scrapy搞下来吧!当然,在此之前,不得不说的一句话就是:请勿将程序用于任何商业用途,仅供交流学习。尊重著作权,请购买正版漫画。

2 Scrapy框架之初窥门径

2.1 Scrapy简介

Scrapy Engine(Scrapy核心) 负责数据流在各个组件之间的流。Spiders(爬虫)发出Requests请求,经由Scrapy Engine(Scrapy核心) 交给Scheduler(调度器),Downloader(下载器)Scheduler(调度器) 获得Requests请求,然后根据Requests请求,从网络下载数据。Downloader(下载器)的Responses响应再传递给Spiders进行分析。根据需求提取出Items,交给Item Pipeline进行下载。Spiders和Item Pipeline是需要用户根据响应的需求进行编写的。除此之外,还有两个中间件,Downloaders Mddlewares和Spider Middlewares,这两个中间件为用户提供方面,通过插入自定义代码扩展Scrapy的功能,例如去重等。因为中间件属于高级应用,本次教程不涉及,因此不做过多讲解。

2.2 Scrapy安装

关于Scrapy的安装,可以查看我之前的笔记:http://blog.csdn.net/c406495762/article/details/60156205

2.3 Scrapy基础

安装好Scrapy之后,我们就可以开启我们的Scrapy之旅了。官方的详细中文教程,请参见:http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/tutorial.html 。我这里只讲本次实战用到的知识。

简单流程如下:

  • 创建一个Scrapy项目;
  • 定义提取的Item;
  • 编写爬取网站的 spider 并提取 Item;
  • 编写 Item Pipeline 来存储提取到的Item(即数据)。

2.3.1 创建项目

在开始爬取之前,我们必须创建一个新的Scrapy项目。 进入打算存储代码的目录中,运行下列命令:

scrapy startproject cartoon
  • 1

scrapy startproject是固定命令,后面的cartoon是自己想起的工程名字。这里,我起名为cartoon(漫画)。

该命令将会创建包含下列内容的cartoon目录:

cartoon/scrapy.cfgcartoon/__init__.pyitems.pymiddlewares.pypipelines.pysettings.pyspiders/__init__.py...
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

这些文件分别是:

  • scrapy.cfg: 项目的配置文件;
  • cartoon/: 该项目的python模块。之后将在此加入Spider代码;
  • cartoon/items.py: 项目中的item文件;
  • cartoon/middlewares .py:项目中的中间件;
  • cartoon/pipelines.py: 项目中的pipelines文件;
  • cartoon/settings.py: 项目的设置文件;
  • cartoon/spiders/: 放置spider代码的目录。

2.3.2 Shell分析

在编写程序之前,我们可以使用Scrapy内置的Scrapy shell,分析下目标网页,为后编写梳理思路。先分析下《火影忍者》主界面:

scrapy shell "http://comic.kukudm.com/comiclist/3/"
  • 1

在Scrapy shell中,我们可以通过如下指令打印网页的body信息:

response.body
  • 1

通过返回的内容,我们可以寻找自己想要的链接,但是这种方法,显然有些麻烦,因为内容太多,不好找。这里,我们还是使用审查元素的方式进行分析:

可以看到,每个章节的链接和名字都存放在了dd标签下的a标签中。在shell中输入如下指令提取链接:

response.xpath('//dd/a[1]')
  • 1

xpath之前讲过了,如果忘记了,可翻阅我之前整理的笔记。从输出结果可以看到,每个链接都已经提取出来了,但是没有显示a标签里面的内容。

想要显示全,就需要extract()方法,转换成字符串输出,指令如下:

response.xpath('//dd/a[1]').extract()
  • 1

从运行结果可以看出,这样就显示完全了。现在开始思考一个问题,如果我想保存每个章节的图片,需要哪些东西?链接必不可少,当然还有每个章节的名字,我们要以文件夹的形式存储每个章节,文件夹的命名就是章节的名字,这样更规整。

我们使用text()获取每个章节的名字,指令如下:

response.xpath('//dd/a[1]/text()').extract()
  • 1

瞧,每个章节的名字被我们轻松的提取出来了,记住这个指令,在编写程序的时候,需要用到。

获取完章节名字,接下来就是获取链接了,使用指令如下:

response.xpath('//dd/a[1]/@href').extract()
  • 1

Scrapy还是蛮好用的嘛~省去了使用Beautifulsoup这些工具的使用。当然,它的强大不仅仅于此,让我们慢慢道来。

《火影忍者》首页分析完了。接下来,我们分析每个章节里的内容,看看如何获取每个图片的链接。还是使用审查元素的方式,我们可以看到,这个网页提供的信息如下。再思考一个问题,从这个网页我们要获取哪些信息?第一个当然还是图片的链接,第二个呢?将一个章节里的每个图片保存下来,我们如何命名图片?用默认名字下载下来的图片,顺序也就乱了。仔细一点的话,不难发现,第一页的链接为:http://comic.kukudm.com/comiclist/3/3/1.htm,第二页的链接为:http://comic.kukudm.com/comiclist/3/3/2.htm,第三页的链接为:http://comic.kukudm.com/comiclist/3/3/3.htm 依此类推,所以我们可以根据这个规律进行翻页,而为了翻页,首先需要获取的就是每个章节的图片数,也就是页数,随后,我们根据每页的地址就可以为每个图片命名:第1页、第2页、第3页…,这样命名就可以了。不会出现乱序,并且很工整,方便我们阅读。由于有的章节图片的链接不是规律的,所以只能先获取页面地址,再获取图片地址,这样递进爬取。

使用ctrl+c退出之前的shell,分析章节页面,以第一章为例,使用指令如下:

scrapy shell "http://comic.kukudm.com/comiclist/3/1.htm"
  • 1

套路已经想好,那就开始测试吧。通过审查元素可以知道,页数存放在valign属性i为top的td标签中。获取的内容由于有好多信息,我们再使用re()方法,通过正则表达式获取页数。获取页数代码如下:

response.xpath('//td[@valign="top"]/text()').re('共(\d+)页')[0]
  • 1

可以看到,通过几次测试就把页数提取出来了。最终的这个指令页要记住,编写程序需要用到。

图片页获取完了,下面该获取图片的链接了,通过审查元素我们会发现,图片链接保存再img标签下的src属性中,理想状态,使用如下指令就可以获取图片链接:

response.xpath('//img[@id="comipic"]/@src').extract()
  • 1

但是你会发现,返回为空。这是为什么?通过response.body打印信息不难发现,这个链接是使用JS动态加载进去的。直接获取是不行的,网页分为静态页面和动态页面,对于静态页面好说,对于动态页面就复杂一些了。可以使用PhantomJS、发送JS请求、使用Selenium、运行JS脚本等方式获取动态加载的内容。(该网站动态加载方式简单,不涉及这些,后续教程会讲解其他动态加载方法)

该网站是使用如下指令加载图片的:

document.write("<img src='"+server+"comic/kuku2comic/Naruto/01/01_01.JPG'><span style='display:none'><img src='"+server+"comic/kuku2comic/Naruto/01/01_02.JPG'></span>");
  • 1

JS脚本放在网页里,没有使用外部JS脚本,这就更好办了,直接获取脚本信息,不就能获取图片链接了?使用指令如下:

response.xpath('//script/text()').extract()
  • 1

通过运行结果可以看出,我们已经获取到了图片链接,server的值是通过运行JS外部脚本获得的,但是这里,我们仔细观察server的值为http://n.1whour.com/,其他页面也是一样,因此也就简化了流程。同样,记住这个指令,编写程序的时候会用到。

就这样这个思路已经梳理清楚,需要的内容有章节链接、章节名、图片链接、每张页数。shell分析完毕,接下来开始编写程序。

2.4 Scrapy程序编写

2.4.1 Spiders程序测试

在cortoon/spiders目录下创建文件comic_spider.py,编写内容如下:

# -*- coding:UTF-8 -*-
import scrapyclass ComicSpider(scrapy.Spider):name = "comic"allowed_domains = ['comic.kukudm.com']start_urls = ['http://comic.kukudm.com/comiclist/3/']def parse(self, response):link_urls = response.xpath('//dd/a[1]/@href').extract()for each_link in link_urls:print('http://comic.kukudm.com' + each_link)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • name:自己定义的内容,在运行工程的时候需要用到的标识;
  • allowed_domains:允许爬虫访问的域名,防止爬虫跑飞。让爬虫只在指定域名下进行爬取,值得注意的一点是,这个域名需要放到列表里;
  • start_urls:开始爬取的url,同样这个url链接也需要放在列表里;
  • def parse(self, response) :请求分析的回调函数,如果不定义start_requests(self),获得的请求直接从这个函数分析;

parse函数中的内容,就是之前我们获取链接的解析内容,在cmd中使用如下指令运行工程:

scrapy crawl comic
  • 1

打印输出了这个章节的链接:

再打印章节名字看看,代码如下:

# -*- coding:UTF-8 -*-
import scrapyclass ComicSpider(scrapy.Spider):name = "comic"allowed_domains = ['comic.kukudm.com']start_urls = ['http://comic.kukudm.com/comiclist/3/']def parse(self, response):# link_urls = response.xpath('//dd/a[1]/@href').extract()dir_names = response.xpath('//dd/a[1]/text()').extract()for each_name in dir_names:print(each_name)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

章节名字打印成功!

2.4.2 Items编写

刚刚进行了简单的测试,了解下Spiders的编写。现在开始进入正题,按步骤编写爬虫。第一步,填写items.py,内容如下:

# -*- coding: utf-8 -*-# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/en/latest/topics/items.htmlimport scrapy

class ComicItem(scrapy.Item):dir_name = scrapy.Field()link_url = scrapy.Field()img_url = scrapy.Field()image_paths = scrapy.Field()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • dir_name:文件名,也就是章节名;
  • link_url:每个章节的每一页的链接,根据这个链接保存图片名;
  • img_url:图片链接;
  • image_paths:图片保存路径。

2.4.3 Settings编写

填写settings.py,内容如下:

BOT_NAME = 'cartoon'SPIDER_MODULES = ['cartoon.spiders']
NEWSPIDER_MODULE = 'cartoon.spiders'# Crawl responsibly by identifying yourself (and your website) on the user-agent
#USER_AGENT = 'cartoon (+http://www.yourdomain.com)'# Obey robots.txt rules
ROBOTSTXT_OBEY = FalseITEM_PIPELINES = {'cartoon.pipelines.ComicImgDownloadPipeline': 1,
}IMAGES_STORE = 'J:/火影忍者'COOKIES_ENABLED = FalseDOWNLOAD_DELAY = 0.25    # 250 ms of delay
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • BOT_NAME:自动生成的内容,根名字;
  • SPIDER_MODULES:自动生成的内容;
  • NEWSPIDER_MODULE:自动生成的内容;
  • ROBOTSTXT_OBEY:自动生成的内容,是否遵守robots.txt规则,这里选择不遵守;
  • ITEM_PIPELINES:定义item的pipeline;
  • IMAGES_STORE:图片存储的根路径;
  • COOKIES_ENABLED:Cookie使能,这里禁止Cookie;
  • DOWNLOAD_DELAY:下载延时,这里使用250ms延时。

2.4.4 Comic_spider编写

在comic_spider.py文件中,编写代码如下,代码进行了详细的注释:

# -*- coding: utf-8 -*-import re
import scrapy
from scrapy import Selector
from cartoon.items import ComicItemclass ComicSpider(scrapy.Spider):name = 'comic'def __init__(self):#图片链接server域名self.server_img = 'http://n.1whour.com/'#章节链接server域名self.server_link = 'http://comic.kukudm.com'self.allowed_domains = ['comic.kukudm.com']self.start_urls = ['http://comic.kukudm.com/comiclist/3/']#匹配图片地址的正则表达式self.pattern_img = re.compile(r'\+"(.+)\'><span')#从start_requests发送请求def start_requests(self):yield scrapy.Request(url = self.start_urls[0], callback = self.parse1)#解析response,获得章节图片链接地址def parse1(self, response):hxs = Selector(response)items = []#章节链接地址urls = hxs.xpath('//dd/a[1]/@href').extract()#章节名dir_names = hxs.xpath('//dd/a[1]/text()').extract()#保存章节链接和章节名for index in range(len(urls)):item = ComicItem()item['link_url'] = self.server_link + urls[index]item['dir_name'] = dir_names[index]items.append(item)#根据每个章节的链接,发送Request请求,并传递item参数for item in items[-13:-1]:yield scrapy.Request(url = item['link_url'], meta = {'item':item}, callback = self.parse2)#解析获得章节第一页的页码数和图片链接   def parse2(self, response):#接收传递的itemitem = response.meta['item']#获取章节的第一页的链接item['link_url'] = response.urlhxs = Selector(response)#获取章节的第一页的图片链接pre_img_url = hxs.xpath('//script/text()').extract()#注意这里返回的图片地址,应该为列表,否则会报错img_url = [self.server_img + re.findall(self.pattern_img, pre_img_url[0])[0]]#将获取的章节的第一页的图片链接保存到img_url中item['img_url'] = img_url#返回item,交给item pipeline下载图片yield item#获取章节的页数page_num = hxs.xpath('//td[@valign="top"]/text()').re(u'共(\d+)页')[0]#根据页数,整理出本章节其他页码的链接pre_link = item['link_url'][:-5]for each_link in range(2, int(page_num) + 1):new_link = pre_link + str(each_link) + '.htm'#根据本章节其他页码的链接发送Request请求,用于解析其他页码的图片链接,并传递itemyield scrapy.Request(url = new_link, meta = {'item':item}, callback = self.parse3)#解析获得本章节其他页面的图片链接def parse3(self, response):#接收传递的itemitem = response.meta['item']#获取该页面的链接item['link_url'] = response.urlhxs = Selector(response)pre_img_url = hxs.xpath('//script/text()').extract()#注意这里返回的图片地址,应该为列表,否则会报错img_url = [self.server_img + re.findall(self.pattern_img, pre_img_url[0])[0]]#将获取的图片链接保存到img_url中item['img_url'] = img_url#返回item,交给item pipeline下载图片yield item
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81

代码看上去可能不好理解,自己动手尝试一下,一步一步来,最终你就会找到答案的。这部分代码不能一步一步讲解,思路已经讲完,其他的就靠自己尝试与体悟了。关于python的yield,简单地讲,yield 的作用就是把一个函数变成一个 generator,带有 yield 的函数不再是一个普通函数,Python 解释器会将其视为一个 generator。想要保持代码的整洁,又要想获得 iterable 的效果,就可以使用yield了,这部分内容,可以查看廖雪峰老师的教程。

2.4.5 Pipelines编写

pipelines.py主要负责图片的下载,我们根据item保存的信息,进行图片的分类保存,代码如下:

# -*- coding: utf-8 -*-# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
from cartoon import settings
from scrapy import Request
import requests
import osclass ComicImgDownloadPipeline(object):def process_item(self, item, spider):#如果获取了图片链接,进行如下操作if 'img_url' in item:images = []#文件夹名字dir_path = '%s/%s' % (settings.IMAGES_STORE, item['dir_name'])#文件夹不存在则创建文件夹if not os.path.exists(dir_path):os.makedirs(dir_path)#获取每一个图片链接for image_url in item['img_url']:#解析链接,根据链接为图片命名houzhui = image_url.split('/')[-1].split('.')[-1]qianzhui = item['link_url'].split('/')[-1].split('.')[0]#图片名image_file_name = '第' + qianzhui + '页.' + houzhui#图片保存路径file_path = '%s/%s' % (dir_path, image_file_name)images.append(file_path)if os.path.exists(file_path):continue#保存图片with open(file_path, 'wb') as handle:response = requests.get(url = image_url)for block in response.iter_content(1024):if not block:breakhandle.write(block)#返回图片保存路径item['image_paths'] = imagesreturn item
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45

代码依旧进行了注释,自己动手尝试吧!

3 运行结果

由于工程文件较多,我将我的整体代码上传到了我的Github,欢迎Follow、Star。URL:https://github.com/Jack-Cherish/python-spider/tree/master/cartoon

我下载了后面火影忍者博人传的内容,可以使用代码,直接爬取漫画所有章节,效果如下所示:

短短了两分钟,这些图片就都保存好了,是不是体会到了分布式Scrapy爬虫的强大了?

4 总结

  • 自己测试的时候,记住加个time.sleep(1)延时,否则说不定哪里爬快了,服务器就会锁IP了;
  • Scrapy的分布式爬取真的很强大,认真学习一下还是有必要的;
  • 不要一味想着爬快点、爬快点、爬快点,为服务器考虑下;
  • 程序请勿用于任何商业用途,仅供交流学习;
  • 如有问题,请留言。如有错误,还望指正,谢谢!

最后感谢看我博客的朋友们,长久以来的支持~后续,爬虫教程可能就出的慢一些了,但是也会更新。过段时间,重点将会放在机器学习和深度学习方面,如有兴趣,欢迎届时前来捧场!

PS: 如果觉得本篇本章对您有所帮助,欢迎关注、评论、顶!

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片:

带尺寸的图片:

居中的图片:

居中并且带尺寸的图片:

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目

    • 项目

      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目 Value
电脑 $1600
手机 $12
导管 $1

设定内容居中、居左、居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列 第二列 第三列
第一列文本居中 第二列文本居右 第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPE ASCII HTML
Single backticks 'Isn't this fun?' ‘Isn’t this fun?’
Quotes "Isn't this fun?" “Isn’t this fun?”
Dashes -- is en-dash, --- is em-dash – is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to-HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。1

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ(n)=(n−1)!∀n∈N\Gamma(n) = (n-1)!\quad\forall n\in\mathbb NΓ(n)=(n−1)!∀n∈N 是通过欧拉积分

Γ(z)=∫0∞tz−1e−tdt&ThinSpace;.\Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=∫0∞​tz−1e−tdt.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

Mon 06Mon 13Mon 20已完成 进行中 计划一 计划二 现有任务Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图::

张三李四王五你好!李四, 最近怎么样?你最近怎么样,王五?我很好,谢谢!我很好,谢谢!李四想了很长时间,文字太长了不适合放在一行.打量着王五...很好... 王五, 你怎么样?张三李四王五

这将产生一个流程图。:

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.2.0开始我的操作确认?结束yesno
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件或者.html文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. 注脚的解释 ↩︎

Python3网络爬虫1:初识Scrapy相关推荐

  1. Python3 网络爬虫(一):初识网络爬虫之夜探老王家(2020年最新版)

    一.前言 3年前,我在 csdn 写过 Python3 网络爬虫系列教程,经过三年的积累,累计阅读量近 90W. 同时,我也在 Github 开源了所有 Python3 网络爬虫代码,累积获得 10. ...

  2. 《Python3网络爬虫开发实战(第二版)》上市了!!!!

    " 阅读本文大概需要 5 分钟. " 告诉大家一个好消息:我的好朋友崔庆才老师的<Python3网络爬虫开发实战(第二版)>现在正式上市了!!!! 没错,就是这本: 就 ...

  3. 《Python3网络爬虫开发实战(第二版)》内容介绍

    这是「进击的Coder」的第 505 篇分享 作者:崔庆才 大家好,本节首先来预告下即将出版的<Python3网络爬虫开发实战(第二版)>的主要内容. 由于我已经把书的总体的内容介绍写在了 ...

  4. python3网络爬虫开发实战pdf 崔庆才 百度网盘分享

    python3网络爬虫开发实战pdf 崔庆才 百度网盘分享 介绍了如何利用Python 3开发网络爬虫,环境配置和基础知识,然后讨论了urllib.requests.正则表达式.Beautiful S ...

  5. 《Python3网络爬虫开发实战》第二波抽奖赠书活动来了!

    嗨~ 给大家重磅推荐一本书!上市两月就已经重印 4 次的 Python 爬虫书!它就是由静觅博客博主崔庆才所作的<Python3网络爬虫开发实战>!!!同时文末还有抽奖赠书活动,不容错过! ...

  6. 《Python3网络爬虫开发实战》抽奖赠书活动

    这本书之前在公众号推荐过,这次庆才找到我想再帮忙宣传一下,如果你的爬虫还是徘徊在入门与放弃路上,这本书能给你一条指引. 上市两月就已经重印 4 次的 Python 爬虫书!它就是由静觅博客博主崔庆才所 ...

  7. [Python3网络爬虫开发实战] 7-动态渲染页面爬取-4-使用Selenium爬取淘宝商品

    在前一章中,我们已经成功尝试分析Ajax来抓取相关数据,但是并不是所有页面都可以通过分析Ajax来完成抓取.比如,淘宝,它的整个页面数据确实也是通过Ajax获取的,但是这些Ajax接口参数比较复杂,可 ...

  8. 【Python3网络爬虫开发实战】3-基本库的使用 1.2-处理异常

    前一节我们了解了请求的发送过程,但是在网络不好的情况下,如果出现了异常,该怎么办呢?这时如果不处理这些异常,程序很可能因报错而终止运行,所以异常处理还是十分有必要的. urllib的error模块定义 ...

  9. Python3网络爬虫快速入门实战解析(一小时入门 Python 3 网络爬虫)

    Python3网络爬虫快速入门实战解析(一小时入门 Python 3 网络爬虫) https://blog.csdn.net/u012662731/article/details/78537432 出 ...

  10. Python 网络爬虫笔记11 -- Scrapy 实战

    Python 网络爬虫笔记11 – Scrapy 实战 Python 网络爬虫系列笔记是笔者在学习嵩天老师的<Python网络爬虫与信息提取>课程及笔者实践网络爬虫的笔记. 课程链接:Py ...

最新文章

  1. 关于bcg库记忆界面的问题及其解决办法
  2. 访谈Stuart Davidson:Skyscanner的持续交付推广
  3. MVC 学习日志1(上)
  4. 改工作空间_打拼六年换的新房,装修花了17万,飘窗改柜子很实用,谁见过?...
  5. 如何处理新建的SAP CRM产品category没有出现在列表的问题
  6. c#设计12星座速配软件_C#设计模式(12)——组合模式
  7. 【转】Windows IIS注册asp 此操作系统版本不支持此选项 错误解决方法
  8. 201621123031 《Java程序设计》第8周学习总结
  9. 随机森林 ---sklearn
  10. wh计算公式_电池的wh和mah怎么换算?
  11. AI芯片:Edge TPU(谷歌出品)【在边缘(edge)设备上运行的“专用集成芯片”】【量化操作:Edge TPU使用8 位权重进行计算,而通常使用32位权重。所以我们应该将权重从32位转换为8位】
  12. 李智慧 - 架构师训练营 第三周
  13. 生活娱乐 360安全卫士和QQ大战
  14. 服务器租用idc机房功能和配置介绍
  15. java毕业设计乡镇卫生院信息管理mybatis+源码+调试部署+系统+数据库+lw
  16. 弘辽科技:不拼低价,95后小伙3个月从0冲上150万
  17. 月末复盘,正视稀缺状态
  18. 仿真软件测试工程师麦克,仿真工程师面试经验 - 共61条真实仿真工程师面试经验分享 - 职业圈...
  19. 【SAP-SD】史上最全的SAP凭证类型总结
  20. python--根据星座测试性格特点-列表/模拟12306火车订票下单 --字典

热门文章

  1. UKF VS EKF
  2. 【Python】Python Seaborn搞定线型回归图曲线
  3. 我为什么放弃学术选择创业:这不仅仅关乎人工智能
  4. Java刷算法:收藏大法
  5. 【软考】-- 计算机组成体系结构(上)【我的1024】
  6. 加密相册、保险箱App打开就闪退、点击提示App Store不提供应用、需要更新才能使用的解决方案
  7. SQL语句 日期 和 时间戳 相互转换
  8. Dosbox 修改分辨率
  9. 【Python表白代码】 2.14“Valentine‘s Day”“没别的意思 就是借着特殊日子说声喜欢你”你在哪儿?我去见你~(各种玫瑰源码合集)
  10. 云服务器挂软件用哪个系统,云服务器挂软件用什么系统