Python网络爬虫开发实战使用XPath,xpath的多种用法
XPath,全称XML Path Language,即XML路径语言,它是一门在XML文档中查找信息的语言。它最初是用来搜寻XML文档的,但是它同样适用于HTML文档的搜索。
很多人学习python,不知道从何学起。
很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!
QQ群:101677771
所以在做爬虫时,我们完全可以使用XPath来做相应的信息抽取。本节中,我们就来介绍XPath的基本用法。
1. XPath概览
XPath的选择功能十分强大,它提供了非常简洁明了的路径选择表达式。另外,它还提供了超过100个内建函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。几乎所有我们想要定位的节点,都可以用XPath来选择。
XPath于1999年11月16日成为W3C标准,它被设计为供XSLT、XPointer以及其他XML解析软件使用,更多的文档可以访问其官方网站:https://www.w3.org/TR/xpath/。
2. XPath常用规则
表4-1列举了XPath的几个常用规则。
表4-1 XPath常用规则
表达式 |
描述 |
---|---|
|
选取此节点的所有子节点 |
|
从当前节点选取直接子节点 |
|
从当前节点选取子孙节点 |
|
选取当前节点 |
|
选取当前节点的父节点 |
|
选取属性 |
这里列出了XPath的常用匹配规则,示例如下:
1 |
//title[@lang='eng'] |
这就是一个XPath规则,它代表选择所有名称为title
,同时属性lang
的值为eng
的节点。
后面会通过Python的lxml库,利用XPath进行HTML的解析。
3. 准备工作
使用之前,首先要确保安装好lxml库,若没有安装,可以参考第1章的安装过程。
4. 实例引入
现在通过实例来感受一下使用XPath来对网页进行解析的过程,相关代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
from lxml import etree text = ''' <div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </ul> </div> ''' html = etree.HTML(text) result = etree.tostring(html) print(result.decode('utf-8')) |
这里首先导入lxml库的etree模块,然后声明了一段HTML文本,调用HTML类进行初始化,这样就成功构造了一个XPath解析对象。这里需要注意的是,HTML文本中的最后一个li
节点是没有闭合的,但是etree模块可以自动修正HTML文本。
这里我们调用tostring()
方法即可输出修正后的HTML代码,但是结果是bytes
类型。这里利用decode()
方法将其转成str
类型,结果如下:
1 2 3 4 5 6 7 8 9 10 |
<html><body><div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </li></ul> </div> </body></html> |
可以看到,经过处理之后,li
节点标签被补全,并且还自动添加了body
、html
节点。
另外,也可以直接读取文本文件进行解析,示例如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = etree.tostring(html) print(result.decode('utf-8')) |
其中test.html的内容就是上面例子中的HTML代码,内容如下:
1 2 3 4 5 6 7 8 9 |
<div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </ul> </div> |
这次的输出结果略有不同,多了一个DOCTYPE
的声明,不过对解析无任何影响,结果如下:
1 2 3 4 5 6 7 8 9 10 |
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd"> <html><body><div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </li></ul> </div></body></html> |
5. 所有节点
我们一般会用//开头的XPath规则来选取所有符合要求的节点。这里以前面的HTML文本为例,如果要选取所有节点,可以这样实现:
1 2 3 4 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//*') print(result) |
运行结果如下:
1 |
[<Element html at 0x10510d9c8>, <Element body at 0x10510da08>, <Element div at 0x10510da48>, <Element ul at 0x10510da88>, <Element li at 0x10510dac8>, <Element a at 0x10510db48>, <Element li at 0x10510db88>, <Element a at 0x10510dbc8>, <Element li at 0x10510dc08>, <Element a at 0x10510db08>, <Element li at 0x10510dc48>, <Element a at 0x10510dc88>, <Element li at 0x10510dcc8>, <Element a at 0x10510dd08>] |
这里使用*代表匹配所有节点,也就是整个HTML文本中的所有节点都会被获取。可以看到,返回形式是一个列表,每个元素是Element
类型,其后跟了节点的名称,如html
、body
、div
、ul
、li
、a
等,所有节点都包含在列表中了。
当然,此处匹配也可以指定节点名称。如果想获取所有li
节点,示例如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//li') print(result) print(result[0]) |
这里要选取所有li
节点,可以使用//
,然后直接加上节点名称即可,调用时直接使用xpath()
方法即可。
运行结果:
1 2 |
[<Element li at 0x105849208>, <Element li at 0x105849248>, <Element li at 0x105849288>, <Element li at 0x1058492c8>, <Element li at 0x105849308>] <Element li at 0x105849208> |
这里可以看到提取结果是一个列表形式,其中每个元素都是一个 Element
对象。如果要取出其中一个对象,可以直接用中括号加索引,如[0]
。
6. 子节点
我们通过/
或//
即可查找元素的子节点或子孙节点。假如现在想选择li
节点的所有直接a
子节点,可以这样实现:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//li/a') print(result) |
这里通过追加/a
即选择了所有li
节点的所有直接a
子节点。因为//li
用于选中所有li
节点,/a
用于选中li
节点的所有直接子节点a
,二者组合在一起即获取所有li
节点的所有直接a
子节点。
运行结果如下:
1 |
[<Element a at 0x106ee8688>, <Element a at 0x106ee86c8>, <Element a at 0x106ee8708>, <Element a at 0x106ee8748>, <Element a at 0x106ee8788>] |
此处的/
用于选取直接子节点,如果要获取所有子孙节点,就可以使用//
。例如,要获取ul
节点下的所有子孙a
节点,可以这样实现:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//ul//a') print(result) |
运行结果是相同的。
但是如果这里用//ul/a
,就无法获取任何结果了。因为/
用于获取直接子节点,而在ul
节点下没有直接的a
子节点,只有li
节点,所以无法获取任何匹配结果,代码如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//ul/a') print(result) |
运行结果如下:
1 |
[] |
因此,这里我们要注意/
和//
的区别,其中/
用于获取直接子节点,//
用于获取子孙节点。
7. 父节点
我们知道通过连续的/
或//
可以查找子节点或子孙节点,那么假如我们知道了子节点,怎样来查找父节点呢?这可以用..
来实现。
比如,现在首先选中href
属性为link4.html
的a
节点,然后再获取其父节点,然后再获取其class
属性,相关代码如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//a[@href="link4.html"]/../@class') print(result) |
运行结果如下:
1 |
['item-1'] |
检查一下结果发现,这正是我们获取的目标li
节点的class
。
同时,我们也可以通过parent::
来获取父节点,代码如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//a[@href="link4.html"]/parent::*/@class') print(result) |
8. 属性匹配
在选取的时候,我们还可以用@
符号进行属性过滤。比如,这里如果要选取class
为item-1
的li
节点,可以这样实现:
1 2 3 4 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//li[@class="item-0"]') print(result) |
这里我们通过加入[@class="item-0"]
,限制了节点的class
属性为item-0
,而HTML文本中符合条件的li
节点有两个,所以结果应该返回两个匹配到的元素。结果如下:
1 |
[<Element li at 0x10a399288>, <Element li at 0x10a3992c8>] |
可见,匹配结果正是两个,至于是不是那正确的两个,后面再验证。
9. 文本获取
我们用XPath中的text()
方法获取节点中的文本,接下来尝试获取前面li
节点中的文本,相关代码如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//li[@class="item-0"]/text()') print(result) |
运行结果如下:
1 |
['\n '] |
奇怪的是,我们并没有获取到任何文本,只获取到了一个换行符,这是为什么呢?因为XPath中text()
前面是/
,而此处/
的含义是选取直接子节点,很明显li
的直接子节点都是a
节点,文本都是在a
节点内部的,所以这里匹配到的结果就是被修正的li
节点内部的换行符,因为自动修正的li
节点的尾标签换行了。
即选中的是这两个节点:
1 2 3 |
<li class="item-0"><a href="link1.html">first item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </li> |
其中一个节点因为自动修正,li
节点的尾标签添加的时候换行了,所以提取文本得到的唯一结果就是li
节点的尾标签和a
节点的尾标签之间的换行符。
因此,如果想获取li
节点内部的文本,就有两种方式,一种是先选取a
节点再获取文本,另一种就是使用//
。接下来,我们来看下二者的区别。
首先,选取到a
节点再获取文本,代码如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//li[@class="item-0"]/a/text()') print(result) |
运行结果如下:
1 |
['first item', 'fifth item'] |
可以看到,这里的返回值是两个,内容都是属性为item-0
的li
节点的文本,这也印证了前面属性匹配的结果是正确的。
这里我们是逐层选取的,先选取了li
节点,又利用/
选取了其直接子节点a
,然后再选取其文本,得到的结果恰好是符合我们预期的两个结果。
再来看下用另一种方式(即使用//
)选取的结果,代码如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//li[@class="item-0"]//text()') print(result) |
运行结果如下:
1 |
['first item', 'fifth item', '\n '] |
不出所料,这里的返回结果是3个。可想而知,这里是选取所有子孙节点的文本,其中前两个就是li
的子节点a
节点内部的文本,另外一个就是最后一个li
节点内部的文本,即换行符。
所以说,如果要想获取子孙节点内部的所有文本,可以直接用//
加text()
的方式,这样可以保证获取到最全面的文本信息,但是可能会夹杂一些换行符等特殊字符。如果想获取某些特定子孙节点下的所有文本,可以先选取到特定的子孙节点,然后再调用text()
方法获取其内部文本,这样可以保证获取的结果是整洁的。
10. 属性获取
我们知道用text()
可以获取节点内部文本,那么节点属性该怎样获取呢?其实还是用@
符号就可以。例如,我们想获取所有li
节点下所有a
节点的href
属性,代码如下:
1 2 3 4 5 |
from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) result = html.xpath('//li/a/@href') print(result) |
这里我们通过@href
即可获取节点的href
属性。注意,此处和属性匹配的方法不同,属性匹配是中括号加属性名和值来限定某个属性,如[@href="link1.html"]
,而此处的@href
指的是获取节点的某个属性,二者需要做好区分。
运行结果如下:
1 |
['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html'] |
可以看到,我们成功获取了所有li
节点下a
节点的href
属性,它们以列表形式返回。
11. 属性多值匹配
有时候,某些节点的某个属性可能有多个值,例如:
1 2 3 4 5 6 7 |
from lxml import etree text = ''' <li class="li li-first"><a href="link.html">first item</a></li> ''' html = etree.HTML(text) result = html.xpath('//li[@class="li"]/a/text()') print(result) |
这里HTML文本中li
节点的class
属性有两个值li
和li-first
,此时如果还想用之前的属性匹配获取,就无法匹配了,此时的运行结果如下:
1 |
[] |
这时就需要用contains()
函数了,代码可以改写如下:
1 2 3 4 5 6 7 |
from lxml import etree text = ''' <li class="li li-first"><a href="link.html">first item</a></li> ''' html = etree.HTML(text) result = html.xpath('//li[contains(@class, "li")]/a/text()') print(result) |
这样通过contains()
方法,第一个参数传入属性名称,第二个参数传入属性值,只要此属性包含所传入的属性值,就可以完成匹配了。
此时运行结果如下:
1 |
['first item'] |
此种方式在某个节点的某个属性有多个值时经常用到,如某个节点的class
属性通常有多个。
12. 多属性匹配
另外,我们可能还遇到一种情况,那就是根据多个属性确定一个节点,这时就需要同时匹配多个属性。此时可以使用运算符and
来连接,示例如下:
1 2 3 4 5 6 7 |
from lxml import etree text = ''' <li class="li li-first" name="item"><a href="link.html">first item</a></li> ''' html = etree.HTML(text) result = html.xpath('//li[contains(@class, "li") and @name="item"]/a/text()') print(result) |
这里的li
节点又增加了一个属性name
。要确定这个节点,需要同时根据class
和name
属性来选择,一个条件是class
属性里面包含li
字符串,另一个条件是name
属性为item
字符串,二者需要同时满足,需要用and
操作符相连,相连之后置于中括号内进行条件筛选。运行结果如下:
1 |
['first item'] |
这里的and
其实是XPath中的运算符。另外,还有很多运算符,如or
、mod
等,在此总结为表4-2。
表4-2 运算符及其介绍
运算符 |
描述 |
实例 |
返回值 |
---|---|---|---|
|
或 |
|
如果 |
|
与 |
|
如果 |
|
计算除法的余数 |
|
1 |
|
计算两个节点集 |
|
返回所有拥有 |
|
加法 |
|
10 |
|
减法 |
|
2 |
|
乘法 |
|
24 |
|
除法 |
|
2 |
|
等于 |
|
如果 |
|
不等于 |
|
如果 |
|
小于 |
|
如果 |
|
小于或等于 |
|
如果 |
|
大于 |
|
如果 |
|
大于或等于 |
|
如果 |
此表参考来源:http://www.w3school.com.cn/xpath/xpath_operators.asp。
13. 按序选择
有时候,我们在选择的时候某些属性可能同时匹配了多个节点,但是只想要其中的某个节点,如第二个节点或者最后一个节点,这时该怎么办呢?
这时可以利用中括号传入索引的方法获取特定次序的节点,示例如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
from lxml import etree text = ''' <div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </ul> </div> ''' html = etree.HTML(text) result = html.xpath('//li[1]/a/text()') print(result) result = html.xpath('//li[last()]/a/text()') print(result) result = html.xpath('//li[position()<3]/a/text()') print(result) result = html.xpath('//li[last()-2]/a/text()') print(result) |
第一次选择时,我们选取了第一个li
节点,中括号中传入数字1即可。注意,这里和代码中不同,序号是以1开头的,不是以0开头。
第二次选择时,我们选取了最后一个li
节点,中括号中传入last()
即可,返回的便是最后一个li
节点。
第三次选择时,我们选取了位置小于3的li
节点,也就是位置序号为1和2的节点,得到的结果就是前两个li
节点。
第四次选择时,我们选取了倒数第三个li
节点,中括号中传入last()-2
即可。因为last()
是最后一个,所以last()-2
就是倒数第三个。
运行结果如下:
1 2 3 4 |
['first item'] ['fifth item'] ['first item', 'second item'] ['third item'] |
这里我们使用了last()
、position()
等函数。在XPath中,提供了100多个函数,包括存取、数值、字符串、逻辑、节点、序列等处理功能,它们的具体作用可以参考:http://www.w3school.com.cn/xpath/xpath_functions.asp。
14. 节点轴选择
XPath提供了很多节点轴选择方法,包括获取子元素、兄弟元素、父元素、祖先元素等,示例如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
from lxml import etree text = ''' <div> <ul> <li class="item-0"><a href="link1.html"><span>first item</span></a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </ul> </div> ''' html = etree.HTML(text) result = html.xpath('//li[1]/ancestor::*') print(result) result = html.xpath('//li[1]/ancestor::div') print(result) result = html.xpath('//li[1]/attribute::*') print(result) result = html.xpath('//li[1]/child::a[@href="link1.html"]') print(result) result = html.xpath('//li[1]/descendant::span') print(result) result = html.xpath('//li[1]/following::*[2]') print(result) result = html.xpath('//li[1]/following-sibling::*')<code class="lang-python"> <span class="kwd">print</span><span class="pun">(</span><span class="pln">result</span><span class="pun">)</span> |
运行结果如下:
1 2 3 4 5 6 7 |
[<Element html at 0x107941808>, <Element body at 0x1079418c8>, <Element div at 0x107941908>, <Element ul at 0x107941948>] [<Element div at 0x107941908>] ['item-0'] [<Element a at 0x1079418c8>] [<Element span at 0x107941948>] [<Element a at 0x1079418c8>] [<Element li at 0x107941948>, <Element li at 0x107941988>, <Element li at 0x1079419c8>, <Element li at 0x107941a08>] |
第一次选择时,我们调用了ancestor
轴,可以获取所有祖先节点。其后需要跟两个冒号,然后是节点的选择器,这里我们直接使用*,表示匹配所有节点,因此返回结果是第一个li
节点的所有祖先节点,包括html
、body
、div
和ul
。
第二次选择时,我们又加了限定条件,这次在冒号后面加了div
,这样得到的结果就只有div
这个祖先节点了。
第三次选择时,我们调用了attribute
轴,可以获取所有属性值,其后跟的选择器还是*,这代表获取节点的所有属性,返回值就是li
节点的所有属性值。
第四次选择时,我们调用了child
轴,可以获取所有直接子节点。这里我们又加了限定条件,选取href
属性为link1.html
的a
节点。
第五次选择时,我们调用了descendant
轴,可以获取所有子孙节点。这里我们又加了限定条件获取span
节点,所以返回的结果只包含span
节点而不包含a
节点。
第六次选择时,我们调用了following
轴,可以获取当前节点之后的所有节点。这里我们虽然使用的是*匹配,但又加了索引选择,所以只获取了第二个后续节点。
第七次选择时,我们调用了following-sibling
轴,可以获取当前节点之后的所有同级节点。这里我们使用*匹配,所以获取了所有后续同级节点。
以上是XPath轴的简单用法,更多轴的用法可以参考:http://www.w3school.com.cn/xpath/xpath_axes.asp。
15. 结语
到现在为止,我们基本上把可能用到的XPath选择器介绍完了。XPath功能非常强大,内置函数非常多,熟练使用之后,可以大大提升HTML信息的提取效率。
如果想查询更多XPath的用法,可以查看:http://www.w3school.com.cn/xpath/index.asp。
如果想查询更多Python lxml库的用法,可以查看http://lxml.de/。
Python网络爬虫开发实战使用XPath,xpath的多种用法相关推荐
- Python网络爬虫开发实战,关于过程中的异常处理
前一节我们了解了请求的发送过程,但是在网络不好的情况下,如果出现了异常,该怎么办呢?这时如果不处理这些异常,程序很可能因报错而终止运行,所以异常处理还是十分有必要的. 很多人学习python,不知道从 ...
- Python网络爬虫开发实战,微博宫格验证码的识别
本节我们来介绍一下新浪微博宫格验证码的识别,此验证码是一种新型交互式验证码,每个宫格之间会有一条指示连线,指示了我们应该的滑动轨迹,我们需要按照滑动轨迹依次从起始宫格一直滑动到终止宫格才可以完成验证, ...
- 【Python3网络爬虫开发实战】 3.2.1-基本用法
[摘要] 在开始之前,请确保已经正确安装好了requests库.如果没有安装,可以参考1.2.1节安装. 1. 准备工作 在开始之前,请确保已经正确安装好了requests库.如果没有安装,可以参考1 ...
- 《崔庆才Python3网络爬虫开发实战教程》学习笔记(4):解析库Xpath的使用方法总结
本篇博文是自己在学习崔庆才的<Python3网络爬虫开发实战教程>的学习笔记系列,如果你也要这套视频教程的话,关注我公众号[小众技术],关注后回复[PYTHON],无套路免费送你一个学习大 ...
- python3网络爬虫开发实战学习笔记(二)------python3 XPATH爬 猫眼电影排名
我最近在看崔庆才老师的<python3 网络爬虫开发实战>觉得挺不错的,上面还有一个 用正则表达式爬取猫眼电影的电影排行榜 我练了一下,感觉不会很难,后来学到了xpath,就想用xpath ...
- Python之父推荐!《Python 3网络爬虫开发实战》第二版!文末送签名版!
很多读者会让我写爬虫方面的书籍,我也一直没写,没写的原因主要有两个,第一个就是在爬虫方面我其实不是很擅长,第二个原因就是因为在爬虫领域庆才已经做的足够好了,我写不一定能写出庆才这水平的,所以也就一直没 ...
- 我的新书《Python3网络爬虫开发实战(第二版)》获得 Python 之父的推荐了!
这是「进击的Coder」的第 492 篇分享 作者:崔庆才 别急,这书现在还没上市哈,但很快了! 最近朋友们一直在催:你的第二版爬虫书怎么还不出来啊,我都等了好几年了!你不是前几个月就完稿了吗?咋这么 ...
- 《Python3网络爬虫开发实战(第二版)》内容介绍
这是「进击的Coder」的第 505 篇分享 作者:崔庆才 大家好,本节首先来预告下即将出版的<Python3网络爬虫开发实战(第二版)>的主要内容. 由于我已经把书的总体的内容介绍写在了 ...
- python3网络爬虫开发实战pdf 崔庆才 百度网盘分享
python3网络爬虫开发实战pdf 崔庆才 百度网盘分享 介绍了如何利用Python 3开发网络爬虫,环境配置和基础知识,然后讨论了urllib.requests.正则表达式.Beautiful S ...
最新文章
- (C++)1045 快速排序 非满分
- LSGO:团队学习模式“社群化”讨论!
- R语言使用dplyr包使用group_by函数、summarise函数和mutate函数计算分组下的均值、标准差、样本个数、以及分组均值的95%执行区间对应的下限值和上限值(Calculate CI)
- hadoop 基准测试与读写测试
- linux中的file命令
- Leetcode 264. 丑数 II 解题思路及C++实现
- PowerDesigner中为Oracle添加自增id
- 朴素贝叶斯趣味挑战项目
- C++_虚继承_虚函数_纯虚函数(多继承的二义性,多态)
- android webview测速,学习分享,echarts模拟宽带测速效果 附Demo演示地址!!
- android资源管理方式,Android资源管理利器Resources和AssetManager
- 光储充一体化充电站_忙时给车充电 闲时上网供电 多能电动车充电站在乐清投用...
- 20. PHP 表单验证 - 验证 E-mail 和 URL
- windows MYSQL 安装及修改root密码
- 黑苹果html5,黑苹果AppleALC声卡驱动安装使用教程 _ 黑苹果乐园
- 索引格式的图片在PS软件中无法操作,怎么解决?
- 2023 OneTool多平台助手程序源码 开心版
- lerna 常用命令
- nginx之allow、deny
- 标准差-经验法则-中心极限定理