黄聪:使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开 位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的 内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。

  一、从HTML文档中提取链接

  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。

  import HTMLParser

  import urllib

  class parseLinks(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == 'a':

  for name,value in attrs:

  if name == 'href':

  print value

  print self.get_starttag_text()

  lParser = parseLinks()

  lParser.feed(urllib.urlopen("http://www.python.org/index.html").read())

  处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象 的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数 据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会 有用武之地了。下面是一个具体的例子

  import HTMLParser

  import urllib

  import sys

  #定义HTML解析器

  class parseLinks(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == 'a':

  for name,value in attrs:

  if name == 'href':

  print value

  print self.get_starttag_text()

  #创建HTML解析器的实例

  lParser = parseLinks()

  #打开HTML文件

  lParser.feed(urllib.urlopen( /

  "http://www.python.org/index.html").read())

  lParser.close()

  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。

二、从HTML文档中提取图像

  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。

  import HTMLParser

  import urllib

  def getImage(addr):

  u = urllib.urlopen(addr)

  data = u.read()

  class parseImages(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == 'img':

  for name,value in attrs:

  if name == 'src':

  getImage(urlString + "/" + value)

  u = urllib.urlopen(urlString)

  lParser.feed(u.read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:

  import HTMLParser

  import urllib

  import sys

  urlString = "http://www.python.org"

  #把图像文件保存至硬盘

  def getImage(addr):

  u = urllib.urlopen(addr)

  data = u.read()

  splitPath = addr.split('/')

  fName = splitPath.pop()

  print "Saving %s" % fName

  f = open(fName, 'wb')

  f.write(data)

  f.close()

  #定义HTML解析器

  class parseImages(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == 'img':

  for name,value in attrs:

  if name == 'src':

  getImage(urlString + "/" + value)

  #创建HTML解析器的实例

  lParser = parseImages()

  #打开HTML文件

  u = urllib.urlopen(urlString)

  print "Opening URL/n===================="

  print u.info()

  #把HTML文件传给解析器

  lParser.feed(u.read())

  lParser.close()

  上述代码的运行结果如下所示:

  Opening URL

  ====================

  Date: Fri, 26 Jun 2009 10:54:49 GMT

  Server: Apache/2.2.9 (Debian) DAV/2 SVN/1.5.1 mod_ssl/2.2.9 OpenSSL/0.9.8g mod_wsgi/2.3 Python/2.5.2

  Last-Modified: Thu, 25 Jun 2009 09:44:54 GMT

  ETag: "105800d-46e7-46d29136f7180"

  Accept-Ranges: bytes

  Content-Length: 18151

  Connection: close

  Content-Type: text/html

  Saving python-logo.gif

  Saving trans.gif

  Saving trans.gif

  Saving afnic.fr.png

三、从HTML文档中提取文本

  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。

  import HTMLParser

  import urllib

  class parseText(HTMLParser.HTMLParser):

  def handle_data(self, data):

  if data != '/n':

  urlText.append(data)

  lParser = parseText()

  lParser.feed(urllib.urlopen( /

  http://docs.python.org/lib/module-HTMLParser.html).read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。 HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给 HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很 大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:

  import HTMLParser

  import urllib

  urlText = []

  #定义HTML解析器

  class parseText(HTMLParser.HTMLParser):

  def handle_data(self, data):

  if data != '/n':

  urlText.append(data)

  #创建HTML解析器的实例

  lParser = parseText()

  #把HTML文件传给解析器

  lParser.feed(urllib.urlopen( /

  “http://docs.python.org/lib/module-HTMLParser.html” /

  ).read())

  lParser.close()

  for item in urlText:

  print item

  上面代码的运行输出过长,在此略过

四、从HTML文档中提取Cookies

  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。

  import urllib2

  import cookielib

  from urllib2 import urlopen, Request

  cJar = cookielib.LWPCookieJar()

  opener=urllib2.build_opener( /

  urllib2.HTTPCookieProcessor(cJar))

  urllib2.install_opener(opener)

  r = Request(testURL)

  h = urlopen(r)

  for ind, cookie in enumerate(cJar):

  print "%d - %s" % (ind, cookie)

  cJar.save(cookieFile)

  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。

  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些 程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。

  import os

  import urllib2

  import cookielib

  from urllib2 import urlopen, Request

  cookieFile = "cookies.dat"

  testURL = 'http://maps.google.com/'

  #为cookie jar 创建实例

  cJar = cookielib.LWPCookieJar()

  #创建HTTPCookieProcessor的opener对象

  opener = urllib2.build_opener( /

  urllib2.HTTPCookieProcessor(cJar))

  #安装HTTPCookieProcessor的opener

  urllib2.install_opener(opener)

  #创建一个Request对象

  r = Request(testURL)

  #打开HTML文件

  h = urlopen(r)

  print "页面的头部/n======================"

  print h.info()

  print "页面的Cookies/n======================"

  for ind, cookie in enumerate(cJar):

  print "%d - %s" % (ind, cookie)

  #保存cookies

  cJar.save(cookieFile)

  上述代码的运行结果如下所示:

  页面的头部

  ======================

  Cache-Control: private

  Content-Type: text/html; charset=ISO-8859-1

  Set-Cookie: PREF=ID=5d9692b55f029733:NW=1:TM=1246015608:LM=1246015608:S=frfx--b3xt73TaEA; expires=Sun, 26-Jun-2011 11:26:48 GMT; path=/; domain=.google.com

  Date: Fri, 26 Jun 2009 11:26:48 GMT

  Server: mfe

  Expires: Fri, 26 Jun 2009 11:26:48 GMT

  Transfer-Encoding: chunked

  Connection: close

  页面的Cookies

  ======================

  0 -

五、为HTML文档中的属性值添加引号

  前面我们讨论了如果根据HTML解析器中的某种处理程序来解析HTML文件,可是有时候我们却需要使用所有的处理程序来处理HTML文档。值得庆幸的是,使用HTMLParser模块解析HTML文件的所有要素并不比处理链接或者图像难多少。

  import HTMLParser

  import urllib

  class parseAttrs(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  . . .

  attrParser = parseAttrs()

  attrParser.init_parser()

  attrParser.feed(urllib.urlopen("test2.html").read())

  这里,我们将讨论如何使用HTMLParser模块来解析HTML文件,从而为“裸奔”的属性值加上引号。首先,我们要定义一个新的HTMLParser类,以覆盖下面所有的处理程序来为属性值添加引号。

  handle_starttag(tag, attrs)

  handle_charref(name)

  handle_endtag(tag)

  handle_entityref(ref)

  handle_data(text)

  handle_comment(text)

  handle_pi(text)

  handle_decl(text)

  handle_startendtag(tag, attrs)

  我们还需要在parser类中定义一个函数来初始化用于存储解析好的数据的变量,同时还要定义另外一个函数来返回解析好的数据。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。使用我们创建的init函数初始化该解析器,这样,我们就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并给属性值添加引号,可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例代码:

  import HTMLParser

  import urllib

  import sys

  #定义HTML解析器

  class parseAttrs(HTMLParser.HTMLParser):

  def init_parser (self):

  self.pieces = []

  def handle_starttag(self, tag, attrs):

  fixedAttrs = ""

  #for name,value in attrs:

  for name, value in attrs:

  fixedAttrs += "%s=/"%s/" " % (name, value)

  self.pieces.append("<%s %s>" % (tag, fixedAttrs))

  def handle_charref(self, name):

  self.pieces.append("&#%s;" % (name))

  def handle_endtag(self, tag):

  self.pieces.append("" % (tag))

  def handle_entityref(self, ref):

  self.pieces.append("&%s" % (ref))

  def handle_data(self, text):

  self.pieces.append(text)

  def handle_comment(self, text):

  self.pieces.append("" % (text))

  def handle_pi(self, text):

  self.pieces.append("" % (text))

  def handle_decl(self, text):

  self.pieces.append("" % (text))

  def parsed (self):

  return "".join(self.pieces)

  #创建HTML解析器的实例

  attrParser = parseAttrs()

  #初始化解析器数据

  attrParser.init_parser()

  #把HTML文件传给解析器

  attrParser.feed(urllib.urlopen("test2.html").read())

  #显示原来的文件内容

  print "原来的文件/n========================"

  print open("test2.html").read()

  #显示解析后的文件

  print "解析后的文件/n========================"

  print attrParser.parsed()

  attrParser.close()

  我们还需要建立一个测试文件,名为test2.html,该文件内容可以从上述代码的运行结果看到,具体如下所示:

原来的文件
========================
<html>
<head>
<meta content="text/html; charset=utf-8"
http-equiv="content-type"/>
<title>Web页面</title>
</head>
<body>
<H1>Web页面清单</H1>
<a href=http://www.python.org>Python网站</a>
<a href=test.html>本地页面</a>
<img SRC=test.jpg>
</body>
</html>

解析后的文件
========================
<html>
<head >
<meta content="text/html; charset=utf-8"
http-equiv="content-type" ></meta>
<title >Web页面</title>
</head>
<body >
<h1 >Web页面清单</h1>
<a href="http://www.python.org" >Python网站</a>
<a href="test.html" >本地页面</a>
<img src="test.jpg" >
</body>
</html>

  六、小结

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文将详细介绍了如何使用Python模块来 迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时,我们还给出了一个规范HTML文件的格式标签的例子,希望本 文对您会有所帮助。

黄聪:使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)相关推荐

  1. 小猪的Python学习之旅 —— 20.抓取Gank.io所有数据存储到MySQL中

    小猪的Python学习之旅 -- 20.抓取Gank.io所有数据存储到MySQL中 标签:Python 一句话概括本文: 内容较多,建议先mark后看,讲解了一波MySQL安装,基本操作,语法速成, ...

  2. python合并word表格单元格_Python实战009:读取Word文档中的表格数据及表格合并问题解决...

    同事最近被安排整理资料,主要工作室将文档中的表格数据提取出来并整理层Excel表格供我们FII刀具商城进行资料维护.由于刀具的种类繁多且规格无数,所以要处理的数据量相当的庞大.人工核对整理既费时又费力 ...

  3. word中填充效果锁定纵横比_【文艺范】Word文档中的首字下沉效果

    在Word写文档中,有一种很有逼格的文艺范效果,就是首字下沉,我们看下下图. 一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一 这种效果是如何制作出来的呢? 在插入菜单这里就有首字下沉 ...

  4. 代码中如何让无序标记的内容并排_英语技术文档中如何正确使用无序列表和有序列表?...

    Foreword 之前跟大家分享过英语技术文档中如何正确使用时态和英语技术文档中如何正确使用人称,这一篇再跟大家分享一下如何正确使用无序列表和有序列表. 其实,在技术文档中,除了无序列表和有序列表,另 ...

  5. 如何在visio中画虚线框以及将visio图形复制到word文档中虚线变为实线的问题

    这两个问题都不是什么复杂的事情,但是如果对visio用的不多或者只是临时用起来碰到了这种问题还真是麻烦事儿. ============================================= ...

  6. 如何将网页下载的文档中的手动换行符替换掉

    在现实工作当中,经常会遇到下载的文档多一些特殊的符号,如下图: 首先为了更好的展现,需要先做如下设置, 这样文章中的所有标记都会显示出来 这实际是由于不同的存在形式引起的,如果对文档不进行合理的格式转 ...

  7. python把数组中的数字每行打印3个并保存在文档中

    arrs=[2,15,48,4,5,6,7,6,4,1,2,3,6,6,7,4,6,8] f=open('test.txt','w+') count=0 for temp in arrs:count+ ...

  8. java使用爬虫工具jsoup实现抓取网页的内容及图片并写入到word文档中

    背景: 有个朋友最近让帮忙写个小功能,需求大概是,1万个链接,让爬每个链接中的某一段文章并附一张图片,每五个链接写入到一个word文档中. 基本思路,就是先去找个爬虫框架把链接网页中内容和图片写到wo ...

  9. python word排版_利用Python-docx 读写 Word 文档中的正文、表格、段落、字体等

    前言: 前两篇博客介绍了 Python 的 docx 模块对 Word 文档的写操作,这篇博客将介绍如何用 docx 模块读取已有 Word 文档中的信息. 本篇博客主要内容有: 1.获取文档的章节信 ...

  10. python word中表格字体设置_利用Python-docx 读写 Word 文档中的正文、表格、段落、字体样式等...

    前言: 前两篇博客介绍了 Python 的 docx 模块对 Word 文档的写操作,这篇博客将介绍如何用 docx 模块读取已有 Word 文档中的信息. 本篇博客主要内容有: 1.获取文档的章节信 ...

最新文章

  1. python必背内容-学 Python 必背的42个常见单词,看看你记住了几个?
  2. 输入一颗二元查找树,将该树转换为它的镜像
  3. 管理mysql表知识点_数据库复习提纲(必考知识点整理)
  4. Java入门需掌握的30个基本概念[转]
  5. 原生js系列之DOM工厂模式
  6. ajax响应不显示值,Ajax响应200正常,但显示未能加载响应数据
  7. 【Android Camera】之 Preview
  8. ExtJs + Struts2 + JSON 程序总结
  9. MFC操作读取excel文件
  10. 跟我学算法-pca(降维)
  11. 华为eNSP学习笔记 | 命令行配置视图
  12. R语言|导入excel数据
  13. ABBYY FineReader OCR图文识别软件如何快速将纸质文档转为电子档教程
  14. 安装calico网络插件后K8s集群节点间通信找不到主机路由(no route to host)
  15. 云原生架构下的微服务选型和演进
  16. 指针<小罗爱c语言>
  17. 3D打印成型成型原理有哪些?性价比高的教学3D打印机如何选购?
  18. 嵌入式软件和python有关吗?
  19. ArcGIS小知识(十二)——打开ArcToolbox的Samples工具以及用法
  20. python模拟抽奖

热门文章

  1. 【个人作品】记之-串口日志记录工具
  2. 杨柳青镇cad_CAD制图岗位职责|CAD制图工作内容 - 职业圈
  3. 方正科技与鸿蒙os系统,国产手机系统的崛起——浅谈鸿蒙OS
  4. GitHub如何生成密钥
  5. 数据库面试题及优化手段
  6. CNN--MINIST
  7. 怎么做一个企业级的BI项目?三步教你迅速搭建
  8. 基于协同过滤的推荐算法
  9. 记一次接口压力测试与性能调优
  10. nrf52840蓝牙协议栈主机一拖八