介绍

之前 BeautifulSoup 的用法,这个已经是非常强大的库了,不过还有一些比较流行的解析库,例如 lxml,使用的是 Xpath 语法,同样是效率比较高的解析方法。如果大家对 BeautifulSoup 使用不太习惯的话,可以尝试下 Xpath
w3c http://www.w3school.com.cn/xpath/index.asp

安装

pip install lxml

XPath语法

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。XPath 是 W3C XSLT 标准的主要元素,并且 XQuery 和 XPointer 都构建于 XPath 表达之上
节点的关系

  • 父(Parent)
  • 子(Children)
  • 同胞(Sibling)
  • 先辈(Ancestor)
  • 后代(Descendant)

选取节点

常用的路径表达式:

表达式 描述
nodename 选取此节点的所有子节点
/ 从根节点选取
// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置
. 选取当前节点
选取当前节点的父节点
@ 选取属性

通配符
XPath 通配符可用来选取未知的 XML 元素

通配符 描述 举例 结果
* 匹配任何元素节点 xpath(‘div/*’) 获取div下的所有子节点
@* 匹配任何属性节点 xpath(‘div[@*]’) 选取所有带属性的div节点
node() 匹配任何类型的节点

选取若干路径
通过在路径表达式中使用“|”运算符,您可以选取若干个路径

表达式 结果
xpath(’//div //table’)

谓语
谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点

表达式 结果
xpath(’/body/div[1]’) 选取body下的第一个div节点
xpath(’/body/div[last()]’) 选取body下最后一个div节点
xpath(’/body/div[last()-1]’) 选取body下倒数第二个节点
xpath(’/body/div[positon() < 3]’) 选取body下前丙个div节点
xpath(’/body/div[@class]’) 选取body下带有class属性的div节点
xpath(’/body/div[@class=“main”]’) 选取body下class属性为main的div节点
xpath(’/body/div[price>35.00]’) 选取body下price元素大于35的div节点

XPath 运算符

运算符 描述 实例 返回值
+ 加法 6 + 4 10
- 减法 6 – 4 2
* 乘法 6 * 4 24
div 除法 8 div 4 2
= 等于 price=9.80 如果 price 是 9.80,则返回 true。如果 price 是 9.90,则返回 false
!= 不等于 price!=9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false
< 小于 price<9.80 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false
<= 小于或等于 price<=9.80 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false
> 大于 price>9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false
>= 大于或等于 price>=9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.70,则返回 false
or price=9.80 or price=9.70 如果 price 是 9.80,则返回 true。如果 price 是 9.50,则返回 false
and price>9.00 and price<9.90 如果 price 是 9.80,则返回 true。如果 price 是 8.50,则返回 false
mod 计算除法的余数 5 mod 2 1

小例子

from lxml import etree
text = '''
<div><ul><li class="item-0"><a href="link1.html">first item</a></li><li class="item-1"><a href="link2.html">second item</a></li><li class="item-inactive"><a href="link3.html">third item</a></li><li class="item-1"><a href="link4.html">fourth item</a></li><li class="item-0"><a href="link5.html">fifth item</a></ul></div>
'''
html = etree.HTML(text)
result = etree.tostring(html)
print(result)

首先我们使用 lxml 的 etree 库,然后利用 etree.HTML 初始化,然后我们将其打印出来。
其中,这里体现了 lxml 的一个非常实用的功能就是自动修正 html 代码,大家应该注意到了,最后一个 li 标签,其实我把尾标签删掉了,是不闭合的。不过,lxml 因为继承了 libxml2 的特性,具有自动修正 HTML 代码的功能

所以输出结果是这样的:

<html><body>
<div><ul><li class="item-0"><a href="link1.html">first item</a></li><li class="item-1"><a href="link2.html">second item</a></li><li class="item-inactive"><a href="link3.html">third item</a></li><li class="item-1"><a href="link4.html">fourth item</a></li><li class="item-0"><a href="link5.html">fifth item</a></li>
</ul></div></body></html>

不仅补全了 li 标签,还添加了 body,html 标签。 文件读取

除了直接读取字符串,还支持从文件读取内容。比如我们新建一个文件叫做 hello.html,内容为:

<div><ul><li class="item-0"><a href="link1.html">first item</a></li><li class="item-1"><a href="link2.html">second item</a></li><li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li><li class="item-1"><a href="link4.html">fourth item</a></li><li class="item-0"><a href="link5.html">fifth item</a></li></ul></div>

利用 parse 方法来读取文件

from lxml import etree
html = etree.parse('hello.html')
result = etree.tostring(html, pretty_print=True)
print(result)

同样可以得到相同的结果
XPath具体使用
依然以上一段程序为例

  1. 获取所有的 <li> 标签
from lxml import etree
html = etree.parse('hello.html')
print (type(html))
result = html.xpath('//li')
print (result)
print (len(result))
print (type(result))
print (type(result[0]))

运行结果

<type 'lxml.etree._ElementTree'>
[<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>]<type 'list'>
<type 'lxml.etree._Element'>

可见,etree.parse 的类型是 ElementTree,通过调用 xpath 以后,得到了一个列表,包含了 5 个 <li> 元素,每个元素都是 Element 类型

  1. 获取<li>标签的所有 class
result = html.xpath('//li/@class')
print (result)

运行结果

['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
  1. 获取 <li> 标签下 href 为 link1.html 的 <a>标签
result = html.xpath('//li/a[@href="link1.html"]')
print (result)

运行结果

[<Element a at 0x10ffaae18>]
  1. 获取<li>标签下的所有 <span> 标签
    注意: 这么写是不对的
result = html.xpath('//li/span')#因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠
result = html.xpath('//li//span')
print(result)

运行结果

[<Element span at 0x10d698e18>]
  1. 获取 <li> 标签下的所有 class,不包括<li>
result = html.xpath('//li/a//@class')
print (result)
#运行结果
['blod']
  1. 获取最后一个 <li><a>的 href
result = html.xpath('//li[last()]/a/@href')
print (result)

运行结果

['link5.html']
  1. 获取倒数第二个元素的内容
result = html.xpath('//li[last()-1]/a')
print (result[0].text)

运行结果

fourth item
  1. 获取 class 为 bold 的标签名
result = html.xpath('//*[@class="bold"]')
print (result[0].tag)

运行结果

span

选择XML文件中节点

  • element(元素节点)
  • attribute(属性节点)
  • text (文本节点)
  • concat(元素节点,元素节点)
  • comment (注释节点)
  • root (根节点)

案例

需求:爬取起点中文网小说的名称

from lxml import etree
import requestsurl = "https://www.qidian.com/rank/yuepiao?chn=21"headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36"
}resp = requests.get(url)e = etree.HTML(resp.text)names = e.xpath('//div[@class="book-mid-info"]/h4/a/text()')print(names)

结果:

['天道图书馆', '诡秘之主', '天阿降临', '圣武称尊', '太初', '牧神记', '史上最强赘婿', '这里有妖气', '伏天氏', '圣墟', '东皇大帝', '儒道至圣', '全职法师', '大道朝天', '万古神帝', '异界召唤之千古群雄', '恶魔就在身边', '万古最强宗', '我是至尊', '超神制卡师']

Python爬虫之(九)数据提取-XPath相关推荐

  1. Python爬虫学习之数据提取(XPath)

    Python爬虫学习之数据提取XPath 概述 常用规则 运算符及介绍 准备工作 实例 文本获取 属性获取 属性值匹配 属性多值匹配 多属性匹配 按序选择 概述 XPath的全称是XML Path L ...

  2. Python爬虫学习之数据提取(Beautiful Soup)

    Python爬虫学习之数据提取Beautiful Soup 前期回顾 概述 解析器 准备工作 实例 节点选择器 方法选择器 find_all find 总结 前期回顾 Python爬虫学习之reque ...

  3. [Python爬虫] 六、数据提取之XPath与lxml类库

    往期内容提要: [Python爬虫] 一.爬虫原理之HTTP和HTTPS的请求与响应 [Python爬虫] 二.爬虫原理之定义.分类.流程与编码格式 [Python爬虫] 三.数据抓取之Request ...

  4. [Python爬虫] 三、数据抓取之Requests HTTP 库

    往期内容提要: [Python爬虫] 一.爬虫原理之HTTP和HTTPS的请求与响应 [Python爬虫] 二.爬虫原理之定义.分类.流程与编码格式 一.urllib 模块 所谓网页抓取,就是把URL ...

  5. [Python爬虫] 四、数据抓取之HTTP/HTTPS抓包工具Fiddler

    往期内容提要: [Python爬虫] 一.爬虫原理之HTTP和HTTPS的请求与响应 [Python爬虫] 二.爬虫原理之定义.分类.流程与编码格式 [Python爬虫] 三.数据抓取之Request ...

  6. 如何使用Python爬虫抓取数据?

    Python爬虫应用十分广泛,无论是各类搜索引擎,还是日常数据采集,都需要爬虫的参与.其实爬虫的基本原理很简单,今天小编就教大家如何使用Python爬虫抓取数据,感兴趣的小伙伴赶紧看下去吧! 工具安装 ...

  7. python Chrome + selenium自动化测试与python爬虫获取网页数据

    一.使用Python+selenium+Chrome 报错: selenium.common.exceptions.SessionNotCreatedException: Message: sessi ...

  8. python爬虫之股票数据定向爬取

    python爬虫之股票数据定向爬取 功能描述 目标:获取上交所和深交所所有股票的名称和交易的信息 输出:保存到文件中 技术路线:requests-bs4-re 前期分析 选取原则:股票的信息静态存在H ...

  9. Python爬虫(九)——京东比价定向爬虫

    文章目录 Python爬虫(九)--京东比价定向爬虫 判断可行性 查看链接 查看robots协议 程序的设计 步骤 方法 def getHTMLText(url) parsePage(ilt, htm ...

  10. 小白学 Python 爬虫(20):Xpath 进阶

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

最新文章

  1. java大文件读写操作
  2. wait/notify/notifyAll在Object类中
  3. GPU(CUDA)学习日记(十三)------ CUDA内存简介
  4. android120 zhihuibeijing 开机页面
  5. 究竟如何保证session一致性?
  6. Winform—C#读写config配置文件
  7. html语言中标记h1代表什么,HTML5中的标题标记(H1内部的P)中是否有段落元素是否有效?...
  8. fread读取同一个文件得到缓冲区大小不同_c++日志文件操作
  9. 130242014034(2)-“电商系统某功能模块”需求分析与设计实验课小结
  10. 为什么选择使用Sass而不是Less?
  11. 《深度学习》花书训练营day01-线性代数
  12. IntelliJ IDEA开发Java笔记
  13. MapABC Flex地图官方API应用整理
  14. 电视剧《都挺好》弹幕数据分析
  15. 粒子群算法的matlab动态图显示 实现(一)
  16. 计算机网络的共享如何关闭,怎么查看并关闭网络共享
  17. C++程序设计原理与实践 习题答案 第二十六章 第26章习题答案
  18. docker 网络方案--分析
  19. 操作系统实践-BIOS
  20. JAVA通过auth_code获取支付宝账户信息

热门文章

  1. C# string 转 bool
  2. 使用UML工具分析类图与类的关系-bouml(java和C++)
  3. 【[Offer收割]编程练习赛10 C】区间价值
  4. 在EXCEL中使用SQL语言对工作表进行操作
  5. atitit.薄伽梵歌overview  attilax 读后感
  6. 如何选购一款好的人事档案管理系统
  7. 如何使用本地账户完整安装 SharePoint Server
  8. L2-010 排座位 (并查集)
  9. 互联网寒冬,程序员该怎样突破重围?
  10. 入门-什么是webshell?