常用正则表达式爬取网页信息及分析HTML标签总结
这篇文章主要是介绍Python
爬取网页信息时,经常使用的正则表达式及方法。它是一篇总结性文章,实用性比较大,主要解决自己遇到的爬虫问题,也希望对你有所帮助~
当然如果会Selenium
基于自动化测试爬虫、BeautifulSoup
分析网页DOM
节点,这就更方便了,但本文更多的是介绍基于正则的底层爬取分析。
1.获取<tr></tr>
标签之间内容
该部分主要是通过正则表达式获取两个标签之间的内容,通常这种标签都是成对出现的。
开始标签如:<tr>、<th>、<td>、<a>、<table>、<div>...
后缀标签如:</tr>、</th>、</td>、</a>、</table>、</div>...
核心代码:
res_tr = r'<tr>(.*?)</tr>'m_tr = re.findall(res_tr,language,re.S|re.M)
例子:
# coding=utf-8
import relanguage = '''<tr><th>性別:</th><td>男</td></tr><tr>'''#正则表达式获取<tr></tr>之间内容
res_tr = r'<tr>(.*?)</tr>'
m_tr = re.findall(res_tr,language,re.S|re.M)
for line in m_tr:print line#获取表格第一列th 属性res_th = r'<th>(.*?)</th>' m_th = re.findall(res_th,line,re.S|re.M)for mm in m_th:print unicode(mm,'utf-8'), #unicode防止乱#获取表格第二列td 属性值res_td = r'<td>(.*?)</td>'m_td = re.findall(res_td,line,re.S|re.M)for nn in m_td:print unicode(nn,'utf-8')
输出如下所示:
python
通过re
模块提供对正则表达式的支持。使用re
的一般步骤是先将正则表达式的字符串形式编译为Pattern
实例,然后使用Pattern
实例处理文本并获得匹配结果(一个Match
实例),最后使用Match
实例获得信息,进行其他的操作。
findall(string[, pos[, endpos]]) | re.findall(pattern, string[, flags])
: 搜索string
,以列表形式返回全部能匹配的子串。其中RE的常见参数包括:
re.I(re.IGNORECASE): 忽略大小写(括号内是完整写法)re.M(re.MULTILINE): 多行模式,改变'^'和'$'的行为re.S(re.DOTALL): 点任意匹配模式,改变'.'的行为
2.获取超链接<a href=..></a>
之间内容
通常在使用正则表达式时,需要分析网页链接,获取URL或网页内容。核心代码如下:
res = r'<a .*?>(.*?)</a>'mm = re.findall(res, content, re.S|re.M)urls=re.findall(r"<a.*?href=.*?<\/a>", content, re.I|re.S|re.M)
例子:
# coding=utf-8
import recontent = '''
<td>
<a href="https://www.baidu.com/articles/zj.html" title="浙江省">浙江省主题介绍</a>
<a href="https://www.baidu.com//articles/gz.html" title="贵州省">贵州省主题介绍</a>
</td>
'''#获取<a href></a>之间的内容
print u'获取链接文本内容:'
res = r'<a .*?>(.*?)</a>'
mm = re.findall(
res, content, re.S|re.M)
for value in mm:print value#获取所有<a href></a>链接所有内容
print u'\n获取完整链接内容:'
urls=re.findall(r"<a.*?href=.*?<\/a>", content, re.I|re.S|re.M)
for i in urls:print i#获取<a href></a>中的URL
print u'\n获取链接中URL:'
res_url = r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')"
link = re.findall(res_url , content, re.I|re.S|re.M)
for url in link:print url
输出如下图所示:
当然如果是通过Selenium
分析DOM
树结构获取href
对应的url
或title
中的值,其核心代码如下所示,这里主要是给大家做个对比,理解不同方法的优势:
driver.get(link) elem = driver.find_elements_by_xpath("//div[@class='piclist']/tr/dd[1]") for url in elem: pic_url = url.get_attribute("href") print pic_url
参考文章:[python爬虫] Selenium定向爬取虎扑篮球海量精美图片
3.获取URL最后一个参数命名图片或传递参数
通常在使用Python
爬取图片过程中,会遇到图片对应的URL
最后一个字段通常用于命名图片,如虎扑孙悦妻子图片:
http://i1.hoopchina.com.cn/blogfile/201411/11/BbsImg141568417848931_640*640.jpg
此时需要通过该URL的”/”后面的参数命名图片,则方法如下:
urls = "http://i1.hoopchina.com.cn/blogfile/201411/11/BbsImg141568417848931_640*640.jpg"
values = urls.split('/')[-1]
print values
输出如下所示:
>>>
BbsImg141568417848931_640*640.jpg
>>>
在使用Python
获取GET
方法的URL
链接中,还可能存在传递参数的值。
此时获取参数方法如下:
url = 'http://localhost/test.py?a=hello&b=world'
values = url.split('?')[-1]
print values
for key_value in values.split('&'):print key_value.split('=')
输出如下所示:
>>>
a=hello&b=world
['a', 'hello']
['b', 'world']
>>>
4.爬取网页中所有URL链接
在学习爬虫过程中,你肯定需要从固有网页中爬取URL链接,再进行下一步的循环爬取或URL抓取。如下,爬取CSDN首页的所有URL链接。
# coding=utf-8
import re
import urlliburl = "http://www.csdn.net/"
content = urllib.urlopen(url).read()
urls = re.findall(r"<a.*?href=.*?<\/a>", content, re.I)
for url in urls:print unicode(url,'utf-8')link_list = re.findall(r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')", content)
for url in link_list: print url
输出如下所示:
>>>
<a href="https://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn">登录</a>
<a href="http://passport.csdn.net/account/mobileregister?action=mobileRegister">注册</a>
<a href="https://passport.csdn.net/help/faq">帮助</a>
...
https://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn
http://passport.csdn.net/account/mobileregister?action=mobileRegister
https://passport.csdn.net/help/faq
...
>>>
5.爬取网页标题title两种方法
获取网页标题也是一种常见的爬虫,如我在爬取维基百科国家信息时,就需要爬取网页title
。通常位于<html><head><title>
标题</title></head></html>
中。
下面是爬取CSDN标题的两种方法介绍:
# coding=utf-8
import re
import urlliburl = "http://www.csdn.net/"
content = urllib.urlopen(url).read()print u'方法一:'
title_pat = r'(?<=<title>).*?(?=</title>)'
title_ex = re.compile(title_pat,re.M|re.S)
title_obj = re.search(title_ex, content)
title = title_obj.group()
print titleprint u'方法二:'
title = re.findall(r'<title>(.*?)</title>', content)
print title[0]
输出如下所示:
>>>
方法一:
CSDN.NET - 全球最大中文IT社区,为IT专业技术人员提供最全面的信息传播和服务平台
方法二:
CSDN.NET - 全球最大中文IT社区,为IT专业技术人员提供最全面的信息传播和服务平台
>>>
6.定位table
位置并爬取属性-属性值
如果使用Python库的一些爬取,通常可以通过DOM
树结构进行定位,如代码:
login = driver.find_element_by_xpath("//form[@id='loginForm']")
参考文章:[Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍
但如果是正则表达式这种相对传统傻瓜式的方法,通过通过find
函数寻找指定table
方法进行定位。如:获取Infobox
的table
信息。
通过分析源代码发现“程序设计语言列表”的消息盒如下:
<table class="infobox vevent" ..><tr><th></th><td></td></tr></table>start = content.find(r'<table class="infobox vevent"') #起点记录查询位置
end = content.find(r'</table>')
infobox = language[start:end]
print infobox
print infobox
输出其中一门语言ActionScript
的InfoBox
消息盒部分源代码如下:
<table class="infobox vevent" cellspacing="3" style="border-spacing:3px;width:22em;text-align:left;font-size:small;line-height:1.5em;">
<caption class="summary"><b>ActionScript</b></caption>
<tr>
<th scope="row" style="text-align:left;white-space:nowrap;;;">发行时间</th>
<td style=";;">1998年</td>
</tr>
<tr>
<th scope="row" style="text-align:left;white-space:nowrap;;;">实现者</th>
<td class="organiser" style=";;"><a href="/wiki/Adobe_Systems" title="Adobe Systems">Adobe Systems</a></td>
</tr>
<tr>
<tr>
<th scope="row" style="text-align:left;white-space:nowrap;;;">启发语言</th>
<td style=";;"><a href="/wiki/JavaScript" title="JavaScript">JavaScript</a>、<a href="/wiki/Java" title="Java">Java</a></td>
</tr>
</table>
参考文章:[python学习] 简单爬取维基百科程序语言消息盒
然后再在这个infobox
内容中通过正则表达式进行分析爬取。下面讲述爬取属性-属性值:
爬取格式如下:
<table><tr><th>属性</th><td>属性值</td></tr></table>
其中th
表示加粗处理,td
和th
中可能存在属性如title、id、type
等值;同时<td></td>
之间的内容可能存在<a href=..></a>
或<span></span>
或<br />
等值,都需要处理。下面先讲解正则表达式获取td
值的例子:
参考:http://bbs.csdn.net/topics/390353859?page=1
<table>
<tr>
<td>序列号</td><td>DEIN3-39CD3-2093J3</td>
<td>日期</td><td>2013年1月22日</td>
<td>售价</td><td>392.70 元</td>
<td>说明</td><td>仅限5用户使用</td>
</tr>
</table>
Python代码如下:
# coding=utf-8
import res = '''<table>
<tr>
<td>序列号</td><td>DEIN3-39CD3-2093J3</td>
<td>日期</td><td>2013年1月22日</td>
<td>售价</td><td>392.70 元</td>
<td>说明</td><td>仅限5用户使用</td>
</tr>
</table>
''' res = r'<td>(.*?)</td><td>(.*?)</td>'
m = re.findall(res,s,re.S|re.M)
for line in m: print unicode(line[0],'utf-8'),unicode(line[1],'utf-8') #unicode防止乱码 #输出结果如下:
#序列号 DEIN3-39CD3-2093J3
#日期 2013年1月22日
#售价 392.70 元
#说明 仅限5用户使用
如果<td id="">
包含该属性则正则表达式为r'<td id=.*?>(.*?)</td>'
;同样如果不一定是id
属性开头,则可以使用正则表达式r'<td .*?>(.*?)</td>'
。
7.过滤<span></span>
等标签
在获取值过程中,通常会存在<span>、<br>、<a href>
等标签,下面举个例子过滤。
<td><span class="nickname">(字) 翔宇</span></td>过滤标签<span>核心代码:elif "span" in nn: #处理标签<span>res_value = r'<span .*?>(.*?)</span>'m_value = re.findall(res_value,nn,re.S|re.M) for value in m_value:print unicode(value,'utf-8'),
代码如下,注意print中逗号连接字符串:
# coding=utf-8
import relanguage = '''
<table class="infobox bordered vcard" style="width: 21em; font-size: 89%; text-align: left;" cellpadding="3">
<caption style="text-align: center; font-size: larger;" class="fn"><b>周恩来</b></caption>
<tr>
<th>性別:</th>
<td>男</td>d
</tr>
<tr>
<th>異名:</th>
<td><span class="nickname">(字) 翔宇</span></td>
</tr>
<tr>
<th>政黨:</th>
<td><span class="org"><a href="../articles/%E4%B8%AD9A.html" title="中国共产党">中国共产党</a></span></td>
</tr>
<tr>
<th>籍貫:</th>
<td><a href="../articles/%E6%B5%9981.html" title="浙江省">浙江省</a><a href="../articles/%E7%BB%8D82.html" title="绍兴市">绍兴市</a></td>
</tr>
</table>
''' #获取table中tr值
res_tr = r'<tr>(.*?)</tr>'
m_tr = re.findall(res_tr,language,re.S|re.M)
for line in m_tr:#获取表格第一列th 属性res_th = r'<th>(.*?)</th>' m_th = re.findall(res_th,line,re.S|re.M)for mm in m_th:if "href" in mm: #如果获取加粗的th中含超链接则处理restr = r'<a href=.*?>(.*?)</a>'h = re.findall(restr,mm,re.S|re.M)print unicode(h[0],'utf-8'), #逗号连接属性值 防止换行else:print unicode(mm,'utf-8'), #unicode防止乱#获取表格第二列td 属性值res_td = r'<td>(.*?)</td>' #r'<td .*?>(.*?)</td>'m_td = re.findall(res_td,line,re.S|re.M)for nn in m_td:if "href" in nn: #处理超链接<a href=../rel=..></a>res_value = r'<a .*?>(.*?)</a>'m_value = re.findall(res_value,nn,re.S|re.M)for value in m_value:print unicode(value,'utf-8'),elif "span" in nn: #处理标签<span>res_value = r'<span .*?>(.*?)</span>'m_value = re.findall(res_value,nn,re.S|re.M) #<td><span class="nickname">(字) 翔宇</span></td>for value in m_value:print unicode(value,'utf-8'),else:print unicode(nn,'utf-8'),print ' ' #换行
输出如下所示:
>>>
性別: 男
異名: (字) 翔宇
政黨: 中国共产党
籍貫: 浙江省 绍兴市
>>>
8.获取<script></script>
等标签内容
比如在获取游讯网图库中,图集对应的原图它是存储在script
中,其中获取原图-original
即可,缩略图-thumb
,大图-big
,通过正则表达式下载URL:
res_original = r'"original":"(.*?)"' #原图m_original = re.findall(res_original,script)
代码如下:
# coding=utf-8
import re
import os content = '''
<script>var images = [
{ "big":"http://i-2.yxdown.com/2015/3/18/KDkwMHgp/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg", "thumb":"http://i-2.yxdown.com/2015/3/18/KHgxMjAp/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg", "original":"http://i-2.yxdown.com/2015/3/18/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg", "title":"","descript":"","id":75109},
{ "big":"http://i-2.yxdown.com/2015/3/18/KDkwMHgp/fec26de9-8727-424a-b272-f2827669a320.jpg", "thumb":"http://i-2.yxdown.com/2015/3/18/KHgxMjAp/fec26de9-8727-424a-b272-f2827669a320.jpg", "original":"http://i-2.yxdown.com/2015/3/18/fec26de9-8727-424a-b272-f2827669a320.jpg", "title":"","descript":"","id":75110},
</script>
''' html_script = r'<script>(.*?)</script>'
m_script = re.findall(html_script,content,re.S|re.M)
for script in m_script:res_original = r'"original":"(.*?)"' #原图m_original = re.findall(res_original,script)for pic_url in m_original:print pic_urlfilename = os.path.basename(pic_url) #去掉目录路径,返回文件名urllib.urlretrieve(pic_url, 'E:\\'+filename) #下载图片
运行结果如下图所示,同时下载图片至E盘。
9.通过replace
过滤<br />
标签
在获取值过程中,通常会存<br />
标签,它表示HTML
换行的意思。常用的方法可以通过标签'<'
和’>’进行过滤,但是这里我想讲述的是一种Python
常用的过滤方法,在处理中文乱码或一些特殊字符时,可以使用函数replace
过滤掉这些字符。核心代码如下:
if '<br />' in value:value = value.replace('<br />','') #过滤该标签value = value.replace('\n',' ') #换行空格替代 否则总换行
例如过滤前后的例子:
達洪阿 異名: (字) 厚菴<br /> (諡) 武壯<br /> (勇號) 阿克達春巴圖魯
達洪阿 異名: (字) 厚菴 (諡) 武壯 (勇號) 阿克達春巴圖魯
10.获取<img ../>
中超链接及过滤<img>
标签
在获取值属性值过程中,可能在分析table/tr/th/td
标签后,仍然存在<img />
图片链接,此时在获取文字内容时,你可能需要过滤掉这些<img>
标签。这里采用的方法如下:
value = re.sub('<[^>]+>','', value)
例如:
#encoding:utf-8 import os import re value = ''''' <table class="infobox" style="width: 21em; text-align: left;" cellpadding="3"> <tr bgcolor="#CDDBE8"> <th colspan="2"> <center class="role"><b>中华民国政治人士</b><br /></center> </th> </tr> <tr> <th>性别:</th> <td>男</td> </tr> <tr> <th>政党:</th> <td><span class="org"> <img alt="中国国民党" src="../../../../images/Kuomintang.svg.png" width="19" height="19" border="0" /> <a href="../../../../articles/%8B%E6%B0%91%E9%BB%A8.html" title="中国国民党">中国国民党</a></span></td> </tr> </table> ''' value = re.sub('<[^>]+>','', value) #过滤HTML标签 print value
输出如下:
>>> 中华民国政治人士 性别: 男 政党: 中国国民党 >>>
虽然仅仅包括汉字,但是中间会存在换行,需要过滤<br />
即可:
if '<br />' in value: value = value.replace('<br />','') value = value.replace('\n',' ') value = re.sub('<[^>]+>','', value) #过滤HTML标签 print value #输出仅仅一行如下: #中华民国政治人士 性别: 男 政党: 中国国民党
下面讲述第二部分,通过正则表达式获取<img>
中的src
超链接,代码如下:
test = '''''<img alt="中国国民党" src="../images/Kuomintang.png" width="19" height="19" border="0" />''' print re.findall('src="(.*?)"',test)
输出如下所示:
>>> ['../images/Kuomintang.png'] >>>
findall
函数返回的总是正则表达式在字符串中所有匹配结果的列表,即findall
中返回列表中每个元素包含的信息。
常用正则表达式爬取网页信息及分析HTML标签总结相关推荐
- [python] 常用正则表达式爬取网页信息及分析HTML标签总结
这篇文章主要是介绍Python爬取网页信息时,经常使用的正则表达式及方法.它是一篇总结性文章,实用性比较大,主要解决自己遇到的爬虫问题,也希望对你有所帮助~ 当然如果会Selenium基于自动化测试爬 ...
- python正则表达式爬取网页数据_常用正则表达式爬取网页信息及HTML分析总结
Python爬取网页信息时,经常使用的正则表达式及方法. 1.获取 标签之间内容2.获取 超链接之间内容3.获取URL最后一个参数命名图片或传递参数4.爬取网页中所有URL链接5.爬取网页标题titl ...
- 常用正则表达式爬取网页信息及HTML分析总结
Python爬取网页信息时,经常使用的正则表达式及方法. 1.获取<tr></tr>标签之间内容 2.获取<a href..></a>超链接之间内容 3 ...
- 利用脚本动态爬取网页信息
利用脚本动态爬取网页信息 编译环境:Jupyter Notebook (Anaconda3) 调用的包:selenium,webdrive,webdriver_manager 文章目录 利用脚本动态爬 ...
- Scrapy项目之自动爬取网页信息
前文已经介绍了利用Scrapy框架与手写爬虫,比较了Scrapy框架的优势.前面介绍的scrapy框架爬取是针对一个网页的爬取,而本文介绍的是实现多个网页的自动爬取,本文将以爬取虎扑湿乎乎论坛帖子信息 ...
- Python爬虫:Xpath爬取网页信息(附代码)
Python爬虫:Xpath爬取网页信息(附代码) 上一次分享了使用Python简单爬取网页信息的方法.但是仅仅对于单一网页的信息爬取一般无法满足我们的数据需求.对于一般的数据需求,我们通常需要从一个 ...
- Python 爬取网页信息并保存到本地爬虫爬取网页第一步【简单易懂,注释超级全,代码可以直接运行】
Python 爬取网页信息并保存到本地[简单易懂,代码可以直接运行] 功能:给出一个关键词,根据关键词爬取程序,这是爬虫爬取网页的第一步 步骤: 1.确定url 2.确定请求头 3.发送请求 4.写入 ...
- python爬取网页信息
最近在学习python,发现通过python爬取网页信息确实方便,以前用C++写了个简单的爬虫,爬取指定网页的信息,代码随便一写都几百行,而要用python完成相同的工作,代码量相当少.前几天看到了一 ...
- qt爬取网页信息_豆瓣TOP250数据爬取
一.问题描述 用python爬取网页数据是现在流行的一种快速获取数据的方法,简单快捷.最近小编通过教程学习完成了豆瓣TOP250数据的爬取.下面就简单介绍一下如何用python程序实现豆瓣网页信息的爬 ...
最新文章
- errors'MessageBoxA' : function does not take 1 parameter
- inet_ntop php,inet_ntop()
- 【转】父类子类指针相互转换问题
- Python---编写一函数,将摄氏温度与华氏温度互转。
- Oracle数据表中输入引号等特殊字符
- java 高级泛型_Java 泛型高级
- ExtJS 异步加载树节点
- django-带签名的cookie
- 原创音乐人炙手可热,中国原创音乐进入新周期?
- 使用EntityFramework Core和Enums作为字符串的ASP.NET Core Razor页面——第二部分
- Java--随机数和随机数种子(转)
- Word 2013 使用技巧
- HDU2085 核反应堆【递推】
- 泛微oa主表赋值明细表_OA系统学习--三
- 电脑公司最新稳定win7系统下载
- 47001 data format error hint -- 解析 JSON/XML 内容错误
- Android跨进程通信--AIDL原理解析
- STM32 IO口模拟ISO7816(PSAM卡)协议
- 学习笔记MOOCM《计算机程序设计C++》第三周中级练习
- 《宝塔面板教程6》:如何修改用户名和密码
热门文章
- 郑州大学c语言实验报告答案,郑州大学c语言实验报告册答案
- 修改Tomcat的JDK版本、Tomcat指定JDK版本方法
- Android第一行代码(第一行代码、活动)
- 纯JS实现填字游戏实战总结
- 详解拦截器和过滤器的区别
- 如何通俗理解海涅定理
- CH340 CH341 Linux驱动最完整使用教程(永久解决/dev/ttyUSB0 permission denied问题,USB设备读写C++实现)
- 微服务分布式电商项目《谷粒商城》学习笔记
- html如何设置字体纵向居中,css 如何使文字垂直居中
- Centos7镜像iso挂载配置本地yum源