HTML 文档本身是结构化的文本,有一定的规则,通过它的结构可以简化信息提取。于是,就有了lxml、pyquery、BeautifulSoup等网页信息提取库。一般我们会用这些库来提取网页信息。其中,lxml 有很高的解析效率,支持 xPath 语法(一种可以在 HTML 中查找信息的规则语法);pyquery 得名于 jQuery(知名的前端 js 库),可以用类似 jQuery 的语法解析网页。但我们今天要说的,是剩下的这个:BeautifulSoup。

BeautifulSoup(下文简称 bs)翻译成中文就是“美丽的汤”,这个奇特的名字来源于《爱丽丝梦游仙境》(这也是为何在其官网会配上奇怪的插图,以及用《爱丽丝》的片段作为测试文本)。

bs 最大的特点我觉得是简单易用,不像正则和 xPath 需要刻意去记住很多特定语法,尽管那样会效率更高更直接。对大多数 python 使用者来说,好用会比高效更重要。这也是我自己使用并推荐 bs 的主要原因。

接下来介绍点 bs 的基本方法,让你看完就能用起来。考虑到“只收藏不看党”的阅读体验,先给出一个“嫌长不看版”的总结:

  1. 随anaconda附带,也可以通过pip安装

  2. 指定不同解析器在性能、容错性上会有差异,导致结果也可能不一样

  3. 基本使用流程:通过文本初始化 bs 对象->通过 find/find_all 或其他方法检测信息->输出或保存

  4. 可以迭代式的查找,比如先定位出一段内容,再其上继续检索

  5. 开发时应注意不同方法的返回类型,出错时多看报错、多加输出信息

  6. 官方文档很友好,也有中文,推荐阅读 地址:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

安装

推荐使用pip进行安装:

pip install beautifulsoup4

要注意,包名是beautifulsoup4,如果不加上 4,会是老版本也就是 bs3,它是为了兼容性而存在,目前已不推荐。我们这里说 bs,都是指 bs4。

bs4 也可以直接通过安装 anaconda 获得。

bs 在使用时需要指定一个“解析器”:

  • html.parse- python 自带,但容错性不够高,对于一些写得不太规范的网页会丢失部分内容

  • lxml- 解析速度快,需额外安装

  • xml- 同属 lxml 库,支持 XML 文档

  • html5lib- 最好的容错性,但速度稍慢

这里的 lxml 和 html5lib 都需要额外安装,不过如果你用的是 anaconda,都是一并安装好的。

快速上手

我们就用官网上的文档作例子:

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p><p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p><p class="story">...</p>
"""

使用 bs 的初始化操作,是用文本创建一个 BeautifulSoup 对象,建议手动指定解析器:

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, 'html.parser')

获取其中的某个结构化元素及其属性:

soup.title  # title 元素
# <title>The Dormouse's story</title>soup.p  # 第一个 p 元素
# <p class="title"><b>The Dormouse's story</b></p>soup.p['class']  # p 元素的 class 属性
# ['title']soup.p.b  # p 元素下的 b 元素
# <b>The Dormouse's story</b>soup.p.parent.name  # p 元素的父节点的标签
# body

并不是所有信息都可以简单地通过结构化获取,通常使用 find 和 find_all 方法进行查找:


soup.find_all('a')  # 所有 a 元素
# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
#  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
#  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]soup.find(id='link3')  # id 为 link3 的元素
# <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a
  • find 和 find_all 可以有多个搜索条件叠加,比如find('a', id='link3', class_='sister')

  • find 返回的是一个bs4.element.Ta****g 对象,这个对象可以进一步进行搜索。如果有多个满足的结果,find只返回第一个;如果没有,返回 None。

  • find_all 返回的是一个由 bs4.element.Tag 对象组成的 list,不管找到几个或是没找到,都是 list。

输出:

x = soup.find(class_='story')
x.get_text()  # 仅可见文本内容
# 'Once upon a time there were three little sisters; and their names were\nElsie,\nLacie and\nTillie;\nand they lived at the bottom of a well.'
x.prettify()  # 元素完整内容
# '<p class="story">\n Once upon a time there were three little sisters; and their names were\n <a class="sister" href="http://example.com/elsie" id="link1">\n  Elsie\n </a>\n ,\n <a class="sister" href="http://example.com/lacie" id="link2">\n  Lacie\n </a>\n and\n <a class="sister" href="http://example.com/tillie" id="link3">\n  Tillie\n </a>\n ;\nand they lived at the bottom of a well.\n</p>\n'

如果你有前端开发经验,对 CSS 选择器很熟悉,bs 也为你提供了相应的方法:

soup.select('html head title')
# [<title>The Dormouse's story</title>]
soup.select('p > #link1')
# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]

以上就是 BeautifulSoup 的一个极简上手介绍,对于 bs 能做什么,想必你已有了一个初步认识。如果你要在开发中使用,建议再看下它的官方文档。文档写得很清楚,也有中文版,你只要看了最初的一小部分,就可以在代码中派上用场了。更多的细节可以在使用时进一步搜索具体方法和参数设置。

官方文档中文版地址:

https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

python 网页解析库 beautifulsoup4 简介相关推荐

  1. Python_爬虫_BeautifulSoup网页解析库

    BeautifulSoup网页解析库 from bs4 import BeautifulSoup 0.BeautifulSoup网页解析库包含 的 几个解析器 Python标准库[主要,系统自带;] ...

  2. Python bs4解析库使用详解

    今天继续给大家介绍Python 爬虫相关知识,本文主要内容是Python bs4解析库使用详解. 一.Python bs4库简介与安装 bs4是Python的一个第三方库,主要用于从HTML或者是XM ...

  3. python pyquery_python3解析库pyquery

    pyquery是一个类似jquery的python库,它实现能够在xml文档中进行jQuery查询,pyquery使用lxml解析器进行快速在xml和html文档上操作,它提供了和jQuery类似的语 ...

  4. db2top详细使用方法_Py之PIL:Python的PIL库的简介、安装、使用方法详细攻略

    Py之PIL:Python的PIL库的简介.安装.使用方法详细攻略 目录 PIL库的简介 PIL库的安装 PIL库的用方法 1.几何图形的绘制与文字的绘制 2.绘制图形的各种案例 PIL库的简介 PI ...

  5. Py之pyserial:Python的pyserial库的简介、安装、使用方法之详细攻略

    Py之pyserial:Python的pyserial库的简介.安装.使用方法之详细攻略 目录 pyserial库的简介 pyserial库的安装 pyserial库的使用方法 pyserial库的简 ...

  6. Py之pygame:Python的pygame库的简介、安装、使用方法详细攻略

    Py之pygame:Python的pygame库的简介.安装.使用方法详细攻略 目录 pygame库的简介 pygame库的安装 pygame库的使用方法 pygame库的简介 PyPoice是SDL ...

  7. Py之dominate:python的dominate库的简介、安装、使用方法之详细攻略

    Py之dominate:python的dominate库的简介.安装.使用方法之详细攻略 目录 dominate库的简介 dominate库的安装 dominate库的使用方法 dominate库的简 ...

  8. Py之PIL:Python的PIL库的简介、安装、使用方法详细攻略

    Py之PIL:Python的PIL库的简介.安装.使用方法详细攻略 目录 PIL库的简介 PIL库的安装 PIL库的用方法 1.几何图形的绘制与文字的绘制 2.绘制图形的各种案例 PIL库的简介 PI ...

  9. Py之pyglet:Python之pyglet库的简介、安装、使用详细攻略

    Py之pyglet:Python之pyglet库的简介.安装.使用详细攻略 目录 pyglet库的简介 pyglet库的安装 pyglet库的使用方法 pyglet库的简介 pyglet是一个pyth ...

最新文章

  1. CentOS7 扩容 / 目录
  2. 【安装PHP】如何在openSUSE42.1下编译安装PHP7
  3. php图片上传方案,php图片上传
  4. [汇编语言]实验三:栈和栈段
  5. 前端学习(1875)vue之电商管理系统电商系统之vue代码提交到码云
  6. linux脚本语句,LINUX shell 脚本语句
  7. 【★】EIGRP终极解析!
  8. centos7.2编译php,CentOS7.2编译安装PHP7.2.3之史上最详细步骤。
  9. 常用的hooks入门
  10. VMX虚拟机环境下CentOS扩展home磁盘空间
  11. 数据结构上机实践第八周项目7—对称矩阵的压缩存储及基本运算
  12. c语言写一元一次函数图像,一元一次函数练习题带答案.doc
  13. 2022-01-11每日刷题打卡
  14. 【算法】07 AM-MCMC算法C++实现
  15. html的特殊符号五角星,五角星怎么打出来?打出五角星符号的方法
  16. html5怎么给图片加边框,怎么给图片加边框 【解决模式】
  17. html超链接地址隐藏,如何在Excel中隐藏超链接地址?
  18. select下拉列表支持搜索功能
  19. data guard汇总(1)
  20. 【CSS3】text-shadow/text-overflow,边框图片,透明度,小米轮播图子菜单另一种实现,覆盖准则

热门文章

  1. Windows server 2003 DHCP全攻略(二)
  2. AWS — AWS ECS
  3. Go 语言编程 — 并发 — Goroutine 协程
  4. C 语言编程 — 高级数据类型 — 共用体
  5. 用 Flask 来写个轻博客 (22) — 实现博客文章的添加和编辑页面
  6. Python基本语法_集合set/frozenset_内建方法详解
  7. Linux_NetworkManager_RHEL7
  8. java ExecutorService
  9. JBoss Seam 3.0.0.Beta1 发布
  10. “偷懒”的表单验证Demo