作者 | 叶庭云

来源 | 修炼Python

头图 | 下载于视觉中国

爬虫基本原理

1. URI 和 URL

URI 的全称为 Uniform Resource Identifier,即统一资源标志符;URL 的全称为 Universal Resource Locator,即统一资源定位符。

比如Github的图标:https://github.com/favicon.ico,它是一个 URL,也是一个 URI。即有这样的一个图标资源,我们用 URL/URI 来唯一指定了它的访问方式,这其中包括了访问协议 HTTPS、访问路径(即根目录)和资源名称 favicon.ico。通过这样一个链接,我们便可以从互联网上找到这个资源,这就是 URL/URI。

URL 是 URI 的子集,也就是说每个 URL 都是 URI,但不是每个 URI 都是 URL。那么,什么样的 URI 不是 URL 呢?URI 还包括一个子类叫做 URN,它的全称为 Universal Resource Name,即统一资源名称。

URN 只命名资源而不指定如何定位资源,比如 urn:isbn:0451450523 指定了一本书的 ISBN,可以唯一标识这本书,但是没有指定到哪里定位这本书,这就是 URN。URL、URN 和 URI 的关系可以用图表示:

但是在目前的互联网,URN 的使用非常少,几乎所有的 URI 都是 URL,所以一般的网页链接我们可以称之为 URL,也可以称之为 URI。

2. 超文本

超文本:Hypertext,我们在浏览器里看到的网页就是超文本解析而成的,其网页源代码是一系列 HTML 代码,里面包含了一系列标签,比如 img 显示图片,p 指定显示段落等。浏览器解析这些标签后,便形成了我们平常看到的网页,而网页的源代码 HTML 就可以称作超文本。

例如,我们在 Chrome 浏览器里面打开任意一个页面,比如我的 CSDN 博客首页,右击任一地方并选择 “检查” 项(或者直接按快捷键 F12),即可打开浏览器的开发者工具,这时在 Elements 选项卡即可看到当前网页的源代码,这些源代码都是超文本,如下图所示:

3. HTTP 和 HTTPS

在我的 CSDN 博客首页 https://yetingyun.blog.csdn.net/ 中,URL 的开头会有 http 或 https,这个就是访问资源需要的协议类型,有时我们还会看到 ftp、sftp、smb 开头的URL,那么这里的 ftp、sftp、smb 都是指的协议类型。在写爬虫的时候,我们抓取的页面通常就是 http 或 https 协议的,了解一下这两个协议的含义:

  • HTTP 的全称是 Hyper Text Transfer Protocol,中文名叫作超文本传输协议,HTTP 协议是用于从网络传输超文本数据到本地浏览器的传送协议,它能保证高效而准确地传送超文本文档。HTTP 是由万维网协会(World Wide Web Consortium)和 Internet 工作小组 IETF(Internet Engineering Task Force)共同合作制定的规范,目前广泛使用的是 HTTP 1.1 版本。

  • HTTPS 的全称是 Hyper Text Transfer Protocol over Secure Socket Layer,是以安全为目标的 HTTP 通道,简单讲是 HTTP 的安全版,即 HTTP 下加入 SSL 层,简称为 HTTPS。

HTTPS 的安全基础是 SSL,因此通过它传输的内容都是经过 SSL 加密的,它的主要作用可以分为两种:

  • 建立一个信息安全通道,来保证数据传输的安全。

  • 确认网站的真实性,凡是使用了 HTTPS 的网站,都可以通过点击浏览器地址栏的锁头标志来查看网站认证之后的真实信息,也可以通过 CA 机构颁发的安全签章来查询。

现在越来越多的网站和 App 都已经向 HTTPS 方向发展,例如:

  • 腾讯微信小程序的官方需求文档要求后台使用 HTTPS 请求进行网络通信,不满足条件的域名和协议无法请求。

  • 谷歌从 2017 年 1 月推出的 Chrome 56 开始,对未进行 HTTPS 加密的网址链接亮出风险提示,会在地址栏的显著位置提醒用户 “此网页不安全”。

  • 苹果公司强制所有 iOS App 在 2017 年 1 月 1 日 前全部改为使用 HTTPS 加密,否则 App 就无法在应用商店上架。

HTTPS 已是大势所趋。

4. HTTP 请求过程

我们在浏览器中输入一个 URL,回车之后便可以在浏览器中观察到页面内容。实际上,这个过程是浏览器向网站所在的服务器发送了一个请求,网站服务器接收到这个请求后进行处理和解析,然后返回对应的响应,接着传回给浏览器。响应里包含了页面的源代码等内容,浏览器再对其进行解析,便将网页呈现了出来,传输模型如下图所示:

此处客户端即代表我们自己的 PC 或手机浏览器,服务器即要访问的网站所在的服务器。

为了更直观地说明这个过程,这里用 Chrome 浏览器的开发者模式下的 Network 监听组件来做下演示,它可以显示访问当前请求网页时发生的所有网络请求和响应。

打开 Chrome 浏览器,右击并选择 “检查” 项,即可打开浏览器的开发者工具。访问百度 https://www.baidu.com/,输入该 URL 后回车,观察这个过程中发生了怎样的网络请求。可以看到,在 Network 页面下方出现了一个个的条目,其中一个条目就代表一次发送请求和接收响应的过程,如下图所示:

观察第一个网络请求,即 www.baidu.com,其中各列字段的的含义如下:

  • 第一列 Name:请求的名称,一般会将 URL 的最后一部分内容当作名称。

  • 第二列 Status:响应的状态码,这里显示为 200,代表响应是正常的;通过状态码,我们可以判断发送了请求之后是否得到了正常的响应。

  • 第三列 Type:请求的文档类型。这里为 document,代表我们这次请求的是一个 HTML 文档,内容就是一些 HTML 代码。

  • 第四列 Initiator:请求源。用来标记请求是由哪个对象或进程发起的。

  • 第五列 Size:从服务器下载的文件和请求的资源大小。如果是从缓存中取得的资源,则该列会显示 from cache。

  • 第六列 Time:发起请求到获取响应所用的总时间。

  • 第七列 Waterfall:网络请求的可视化瀑布流。

点击进入这个条目还可以看到其更详细的信息,如图所示:

  • General 部分:Request URL 为请求的 URL,Request Method 为请求的方法,Status Code 为响应状态码,Remote Address 为远程服务器的地址和端口,Referrer Policy 为 Referrer 判别策略。

  • Response Headers 和 Request Headers:这分别代表响应头和请求头,请求头里带有许多请求信息,例如浏览器标识、Cookies、Host 等信息,这是请求的一部分,服务器会根据请求头内的信息判断请求是否合法,进而作出对应的响应。图中看到的 Response Headers 就是响应的一部分,例如其中包含了服务器的类型、文档类型、日期等信息,浏览器接受到响应后,会解析响应内容,进而呈现网页内容。

请求包含的内容如下:

请求,由客户端向服务端发出,可以分为 4 部分内容:请求方法(Request Method)、请求的网址(Request URL)、请求头(Request Headers)、请求体(Request Body)。

1)请求方法

常见的请求方法有两种:GET 和 POST

在浏览器中直接输入 URL 并回车,这便发起了一个 GET 请求,请求的参数会直接包含到 URL 里。例如,在百度中搜索 Python,这就是一个 GET 请求,链接为 https://www.baidu.com/s?wd=Python,其中 URL 中包含了请求的参数信息,这里参数 wd 表示要搜寻的关键字;而 POST 请求大多在表单提交时发起。比如,对于一个登录表单,输入用户名和密码后,点击 “登录” 按钮,这通常会发起一个 POST 请求,其数据通常以表单的形式传输,而不会体现在 URL 中。

GET 和 POST 请求方法有如下区别:

  • GET 请求中的参数包含在 URL 里面,数据可以在 URL 中看到,而 POST 请求的 URL 不会包含这些数据,数据都是通过表单形式传输的,会包含在请求体中。

  • GET 请求提交的数据最多只有 1024 字节,而 POST 请求没有限制。

一般来说,登录时,需要提交用户名和密码,其中包含了敏感信息,使用 GET 方式请求的话,密码就会暴露在 URL 里面,造成密码泄露,所以这里最好以 POST 方式发送。上传文件时,由于文件内容比较大,也会选用 POST 方式。

我们平常遇到的绝大部分请求都是 GET 或 POST 请求,另外还有一些请求方法,如 HEAD、PUT、DELETE、OPTIONS、CONNECT、TRACE 等,简单将其总结为下表:

请求的网址本表参考网址:http://www.runoob.com/http/http-methods.html

请求的网址,即统一资源定位符 URL,它可以唯一确定我们想请求的资源。

2)请求头

请求头,用来说明服务器要使用的附加信息,比较重要的信息有 Cookie、Referer、User-Agent 等。下面简要说明一些常用的头信息。

  • Cookie:也常用复数形式 Cookies,这是网站为了辨别用户进行会话跟踪而存储在用户本地的数据,它的主要功能是维持当前访问会话。例如:我们输入用户名和密码成功登录某个网站后,服务器会用会话保存登录状态信息,后面我们每次刷新或请求该站点的其他页面时,会发现都是登录状态,这就是 Cookies 的作用。Cookies 中有信息标识了我们所对应的服务器的会话,每次浏览器在请求该站点的页面时,都会在请求头中加上 Cookies 并将其发送给服务器,服务器通过 Cookies 识别出是我们自己,并且查出当前状态是登录状态,所以返回结果就是登录之后才能看到的网页内容。

  • Referer:此内容用来标识这个请求是从哪个页面发过来的,服务器可以拿到这一信息并做相应的处理,如做来源统计、防盗链处理等。

  • Host:用于指定请求资源的主机 IP 和端口号,其内容为请求 URL 的原始服务器或网关的位置。从 HTTP 1.1 版本开始,请求必须包含此内容。

  • User-Agent:简称 UA,它是一个特殊的字符串头,可以使服务器识别客户使用的操作系统及版本、浏览器及版本等信息。在做爬虫时加上此信息,可以伪装成浏览器;如果不加,很可能会被识别出为爬虫。

  • Accept:请求报头域,用于指定客户端可接受哪些类型的信息。

  • Accept-Language:指定客户端可接受的语言类型。

  • Accept-Encoding:指定客户端可接受的内容编码。

  • Content-Type:也叫互联网媒体类型(Internet Media Type)或者 MIME 类型,在 HTTP 协议消息头中,它用来表示具体请求中的媒体类型信息。例如,text/html 代表 HTML 格式,image/gif 代表 GIF 图片,application/json 代表 JSON 类型,更多对应关系可以查看此对照表:http://tool.oschina.net/commons。

请求头是请求的重要组成部分,在写爬虫程序时,一般都需要设定请求头。

3)请求体

请求体一般承载的内容是 POST 请求中的表单数据,而对于 GET 请求,请求体则为空。

例如,登录 GitHub 时捕获到的请求和响应如图所示:

登录之前,我们填写了用户名和密码信息,提交时这些内容就会以表单数据的形式提交给服务器,此时需要注意 Request Headers 中指定 Content-Type 为 application/x-www-form-urlencoded。只有设置 Content-Type 为 application/x-www-form-urlencoded,才会以表单数据的形式提交。另外,我们也可以将 Content-Type 设置为 application/json 来提交 JSON 数据,或者设置为 multipart/form-data 来上传文件。

下面表格中列出了 Content-Type 和 POST 提交数据方式的关系:

在爬虫中,如果要构造 POST 请求,需要使用正确的 Content-Type,并了解各种请求库的各个参数设置时使用的是哪种 Content-Type,不然可能会导致 POST 提交后无法得到正常响应。

4)响应状态码

响应状态码表示服务器的响应状态,如 200 代表服务器正常响应,404 代表页面未找到,500 代表服务器内部发生错误。在爬虫中,我们可以根据状态码来判断服务器响应状态,如状态码为 200,则证明成功返回数据,再进行进一步的处理,否则直接忽略。

下表列出了常见的错误代码及错误原因:

在写 python 爬虫时,我们主要通过响应体得到网页的源代码、JSON 数据等,然后从中提取我们想要的数据并保存下来。

Web网页基础

当我们用浏览器访问网站时,页面各不相同,不同网页的有不同的基本组成、结构和节点等内容。网页可以分为三大部分:HTML、CSS 和 JavaScript。

1. HTML

HTML 是用来描述网页的一种语言,其全称为 Hyper Text Markup Language,即超文本标记语言。

我们浏览的网页包括文字、按钮、图片和视频等各种复杂的元素,其基础架构就是 HTML。不同类型的元素通过不同类型的标签来表示,如图片用 img 标签表示,视频用 video 标签表示,段落用 p 标签表示,它们之间的布局又常通过布局标签 div 嵌套组合而成,各种标签通过不同的排列和嵌套就可以形成网页的框架。

我们在 Chrome 浏览器中打开百度,右击并选择 “检查” 项(或按 F12键),打开开发者模式,这时在 Elements 选项卡中即可看到网页的源代码,如下图所示:

这就是 HTML,整个网页由各种标签嵌套组合而成的。这些标签定义的节点元素相互嵌套和组合形成复杂的层次关系,也形成了网页的架构。

2. CSS

虽然 HTML 形成了网页的结构,但是只有 HTML 页面的布局并不美观,可能只是简单的节点元素的排列,为了让网页看起来更好看一些,这里就需要借助 CSS 了。

CSS,全称叫作 Cascading Style Sheets,即层叠样式表。“层叠” 是指当在 HTML 中引用了数个样式文件,并且样式发生冲突时,浏览器能依据层叠顺序处理。"样式" 指网页中文字大小、颜色、元素间距、排列等格式。

CSS 是网页页面排版样式标准,有了它的帮助,页面可以变得更为美观。

1#head_wrapper.s-ps-islite .s-p-top {
2   position: absolute;
3   bottom: 40px;
4   width: 100%;
5   height: 181px;以上是一个 CSS 样式。大花括号前面是一个 CSS 选择器。此选择器的作用是首先选中 id 为 head_wrapper 且 class 为 s-ps-islite 的节点,然后再选中其内部的 class 为 s-p-top 的节点。
  • 大括号内部写的就是一条条样式规则,例如 position 指定了这个元素的布局方式为绝对布局,bottom 指定元素的下边距为 40 像素,width 指定了宽度为 100% 占满父元素,height 则指定了元素的高度。

  • 也就是说,我们将位置、宽度、高度等样式配置统一写成这样的形式,然后用大括号括起来,接着在开头再加上 CSS 选择器,这就代表这个样式对 CSS 选择器选中的元素生效,元素就会根据此样式来展示了。

  • 在网页中,一般会统一定义整个网页的样式规则,并写入 CSS 文件中(其后缀为 .css)。在 HTML 中,只需要用 link 标签即可引入写好的 CSS 文件,这样可以使页面变得更美观、优雅。

3. JavaScript

JavaScript,简称 JS,是一种脚本语言。HTML 和 CSS 配合使用,提供给用户的只是一种静态信息,缺乏交互性。我们在网页里可能会看到一些交互和动画效果,如下载进度条、提示框、轮播图等,这通常就是 JavaScript 的功劳。它的出现使得用户与信息之间不只是一种浏览与显示的关系,而是实现了一种实时、动态、交互的页面功能。

JavaScript 通常也是以单独的文件形式加载的,后缀为 .js,在 HTML 中通过 script 标签即可引入,例如:

1<script src="jquery-2.1.0.js"></script>小结:HTML 定义了网页的内容和结构,CSS 描述了网页的布局,JavaScript 定义了网页的行为。

4. 网页基本结构

了解了网页的基本组成,用一个实例来感受下 HTML 的基本结构。新建一个文本文件,名称自取,后缀为 .html,内容如下:

 1<!DOCTYPE html>2<html lang="en">3<head>4    <meta charset="utf-8">5    <title>网页基本结构</title>6</head>7<body>8    <div id="container">9        <div class="wrapper">
10            <h2 class="title">Hello World</h2>
11            <p class="text">This is a paragraph!</p>
12            <img src="./imgs/test.jpg" width="960px" height="540px">
13        </div>
14    </div>
15
16</body>
17</html>这是一个简单的 HTML 实例。开头用 DOCTYPE 定义了文档类型,其次最外层是 html 标签,最后还有对应的结束标签来表示闭合,其内部是 head 标签和 body 标签,分别代表网页头和网页体,它们也需要结束标签。
  • head 标签内定义了一些页面的配置和引用,如:<meta charset="utf-8">,它指定了网页的编码为 UTF-8。title 标签则定义了网页的标题,会显示在网页的选项卡中,不会显示在正文中。body 标签内则是在网页正文中显示的内容。

  • div 标签定义了网页中的区块,它的 id 是 container,这是一个非常常用的属性,且 id 的内容在网页中是唯一的,我们可以通过它来获取这个区块。然后在此区块内又有一个 div 标签,它的 class 为 wrapper,这也是一个非常常用的属性,经常与 CSS 配合使用来设定样式。

  • 然后此区块内部又有一个 h2 标签,这代表一个二级标题。另外,还有一个 p 标签,这代表一个段落。在这两者中直接写入相应的内容即可在网页中呈现出来,它们也有各自的 class 属性。

  • 通过 img 标签插入图片,src='图片引用路径',重新设置显示网页上显示该图片的宽、高

将代码保存后,在浏览器中打开该文件,可以看到如下内容:

可以看到,在选项卡上显示了 网页基本结构 字样,这是我们在 head 中的 title 里定义的文字。而网页正文是 body 标签内部定义的各个元素生成的,可以看到这里显示了二级标题、段落和显示的图片。

这个实例可以说明网页的一般结构。一个网页的标准形式是 html 标签内嵌套 head 和 body 标签,head 内定义网页的配置和引用,body 内定义网页的正文。

5. CSS选择器

  • 网页由一个个节点组成,CSS 选择器会根据不同的节点设置不同的样式规则,那么怎样来定位节点呢?

  • 在 CSS 中,我们使用 CSS 选择器来定位节点。例如,上例中 div 节点的 id 为 container,那么就可以表示为 #container,其中 # 开头代表选择 id,其后紧跟 id 的名称。

  • 另外,如果我们想选择 class 为 wrapper 的节点,便可以使用 .wrapper,这里以点"."开头代表选择 class,其后紧跟 class 的名称。另外,还有一种选择方式,那就是根据标签名筛选,例如想选择二级标题,直接用 h2 即可。这是最常用的 3 种表示,分别是根据 id、class、标签名筛选,请牢记它们的写法。

  • 另外,CSS 选择器还支持嵌套选择,各个选择器之间加上空格分隔开便可以代表嵌套关系,如 #container .wrapper p 则代表先选择 id 为 container 的节点,然后选中其内部的 class 为 wrapper 的节点,然后再进一步选中其内部的 p 节点。

  • 另外,如果不加空格,则代表并列关系,如 div#container .wrapper p.text 代表先选择 id 为 container 的 div 节点,然后选中其内部的 class 为 wrapper 的节点,再进一步选中其内部的 class 为 text 的 p 节点。这就是 CSS 选择器,其筛选功能是非常强大的。

了解 Web 网页的基本内容后,才好有更加清晰的思路去解析和提取网页内容,有利于爬虫学习。

更多精彩推荐
☞程序员硬核“年终大扫除”,清理了数据库 70GB 空间☞打造 AI 语音新标杆,英特尔与腾讯云小微创新共赢☞三种方法,用Python轻松提取PDF中的全部图片
☞这25条极简Python代码,你还不知道
点分享点收藏点点赞点在看

玩转 Python 爬虫,需要先知道这些相关推荐

  1. 由浅到深玩转Python爬虫(一)初识爬虫

    文章目录 前言 1. Python版本如何选择? 2. IDE如何选择? 3. 初识爬虫 4. 爬虫前景怎么样? 5. 怎么编写爬虫? 6. 来!我们上道具 7. 致谢 前言   由于自身对爬虫技术的 ...

  2. 玩转python爬虫,从简易到复杂

    一. urllib urllib是python中自带的一个基于爬虫的模块 作用:可以使用代码模拟浏览器发起请求 使用流程: 指定url 发起请求 获取页面数据 持久化存储 1. 第一个urllib爬虫 ...

  3. python爬虫经典段子_玩转python爬虫之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  4. 利用python爬虫与数据分析,打造最强玩法,轻松成为大神级玩家!

    前言: 最近迷上了一款游戏,但是作为一名程序员的我是不可能只玩游戏的,我必须把它的官网数据采集下来! 环境: windows python3.6.5 模块: requests jsonpath pyg ...

  5. 玩转python网络爬虫-清华大学出版社-图书详情-《玩转Python网络爬虫》

    前 言 随着大数据和人工智能的普及,Python的地位也变得水涨船高,许多技术人员投身于Python开发,其中网络爬虫是Python最为热门的应用领域之一.在爬虫领域,Python可以说是处于霸主地位 ...

  6. 推荐一位玩自动化、爬虫的 Python 硬核爱好者

    今天给大家推荐一位 Python 类的公众号「AirPython」,作者:星安果,果哥有 7 年的编程学习经验,热爱 Python 爬虫.自动化实战.软件测试.Web.数据分析及软件测试,平时喜欢分享 ...

  7. 【游戏开发进阶】带你玩转模型法线,实验一下大胆的想法(法线贴图 | shader | Unity | python | 爬虫)

    文章目录 一.前言 二.直观感受法线贴图 三.表面法线 1.表面法线的概念 2.空间与坐标系 2.1.世界空间--世界坐标系 2.2.局部空间--局部坐标系 2.3.切线空间--切线坐标系 2.4.小 ...

  8. 小白学 Python 爬虫(42):春节去哪里玩(系列终篇)

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

  9. Python 爬虫瞎玩系列(1) —— Bilibili的前100个上古巨坟考古

    Python 爬虫瞎玩系列(1) -- Bilibili的前100个上古巨坟考古 现在是2017年5月25日13:29:56,嗯,神志正常. Python爬虫很难?不存在的. 只要学习我的课程< ...

最新文章

  1. 暑期集训5:并查集 线段树 练习题G: HDU - 1754
  2. java深度克隆_浅析Java中clone()方法浅克隆与深度克隆
  3. 动静结合学内核:linux idle进程和init进程浅析
  4. 马来西亚国立大学的计算机,要拿到马来西亚国立大学的 offer难吗?
  5. 不要再问我Python2和Python3的Unicode 问题啦!
  6. wxWidgets:实时传输时间RTTI
  7. 在D-Bus适配器中声明槽
  8. MySQL MyISAM和InnoDB存储引擎的比较
  9. 【android】窗口管理
  10. 使用Struts 2框架实现文件下载
  11. 利用接口做参数,写个计算器,能完成加减乘除运算。 (1)定义一个接口Compute含有一个方法int computer(int n, int m)。 (2)设计四个类分
  12. WCF学习笔记(2)——独立WCF服务
  13. mysql 错误编码_【分享】MySQl操作系统提示错误编码
  14. python在线编程免费课程-吐血整理!程序员最爱的13个免费Python课程
  15. 辽宁移动计算机类专业笔试题库,2019辽宁中国移动笔试行测模拟题(八)
  16. PopWindow:基本使用与自定义PopWindow
  17. Python - 批量修改文件夹名称
  18. 收藏商品表设计_数据采集实战:商品详情页数据埋点
  19. 明日直播| NLPCC workshop百度架构师带你快速上手飞桨NLP
  20. java 知网 语义 相似度,基于知网语义相似度的中文文本分类研究 论文笔记

热门文章

  1. angular组合preact
  2. 阿里云移动数据分析服务使用教程
  3. ReactiveCocoa代码实践之-更多思考
  4. jquery easy ui 简单字段选择搜索实现
  5. 为什么选择数据分析师这个职业?
  6. 陶哲轩实分析 习题 13.4.6
  7. 在winform中从外部拖动节点到树形结构(treeview和listview相互拖动)(一)
  8. 2020大部分知名公司Java面试题答案(一)
  9. Oracle发布开源的轻量级 Java 微服务框架 Helidon
  10. 金九银十征服、阿里、京东、字节跳动,的程序员和他们的公众号