1. 用beautiful soup 解析网页的HTML的信息

https://blog.csdn.net/i_chaoren/article/details/63282877

1.1 BeautifulSoup的安装及介绍

官方给出的几点介绍: 
Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 
Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。 
Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度。

Beautiful Soup的安装

pip install beautifulsoup4

1.2 BeautifulSoup中的HTML解析器对比

https://blog.csdn.net/IMW_MG/article/details/78220979

解析器 使用方法 优势 劣势
Python标准库 BeautifulSoup(markup, “html.parser”) Python的内置标准库;执行速度适中;文档容错能力强 Python 2.7.3 or 3.2.2)前 的版本中文档容错能力差
lxml HTML解析器 BeautifulSoup(markup, “lxml”) 速度快;文档容错能力强 需要安装C语言库
lxml XML 解析器 BeautifulSoup(markup, [“lxml”, “xml”]) 速度快;唯一支持XML的解析器 需要安装C语言库
html5lib BeautifulSoup(markup, “html5lib”) 最好的容错性;以浏览器的方式解析文档;生成HTML5格式的文档 速度慢;不依赖外部扩展

1.3 BeautifulSoup4解析器

解析html获得数据

以beautifulsoup为例,包含获取标签、链接,以及根据html层次结构遍历等方法。

REF: https://blog.csdn.net/i_chaoren/article/details/63282877

https://blog.csdn.net/qq_33689414/article/details/78585304

#!/usr/bin/python
# -*- coding: UTF-8 -*-import refrom bs4 import BeautifulSouphtml_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
#创建一个BeautifulSoup解析对象
soup = BeautifulSoup(html_doc,"html.parser",from_encoding="utf-8")
#获取所有的链接
links = soup.find_all('a')
print ("所有的链接")
for link in links:print (link.name,link['href'],link.get_text())print ("获取特定的URL地址")
link_node = soup.find('a',href="http://example.com/elsie")
print (link_node.name,link_node['href'],link_node['class'],link_node.get_text())print ("正则表达式匹配")
link_node = soup.find('a',href=re.compile(r"ti"))
print (link_node.name,link_node['href'],link_node['class'],link_node.get_text())print ("获取P段落的文字")
p_node = soup.find('p',class_='story')
print (p_node.name,p_node['class'],p_node.get_text())

2. Beautiful Soup 4.2.0 文档¶

https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/

https://blog.csdn.net/i_chaoren/article/details/63282877

1、Beautiful Soup库基础知识

(1)Beautiful Soup库的理解

Beautiful Soup库是解析、遍历、维护“标签树”的功能库。

BeautifulSoup对应一个HTML/XML文档的全部内容。

(2)Beautiful Soup库解析器

(3)BeautifulSoup类的基本元素

a. Tag 标签.

任何存在于HTML语法中的标签都可以用soup.<tag>访问获得。

当HTML文档中存在多个相同<tag>对应内容时,soup.<tag>返回第一个。

示例代码如下:

b. Tag的name.

每个<tag>都有自己的名字,通过<tag>.name获取,字符串类型。

示例代码如下:

c. Tag的attrs.

一个<tag>可以有0或多个属性,字典类型

示例代码如下:

d. Tag的NavigableString.

NavigableString可以跨越多个层次。

示例代码如下:

(4)基于bs4库的HTML内容遍历方法

a. HTML基本格式

b. 标签树的下行遍历

遍历儿子节点:

遍历子孙节点:

c. 标签树的上行遍历

d. 标签树的上行遍历

总结如下图:

(5)bs4库的prettify()方法--让HTML内容更加“友好”的显示

prettify()为HTML文本<>及其内容增加更加'\n'

显示效果如下:

2、信息标记与提取方法

(1)信息标记的三种方式

a. XML实例

b. JSON实例

c. YAML实例

三种信息标记形式的比较:

XML最早的通用信息标记语言,可扩展性好,但繁琐。Internet上的信息交互与传递。

JSON信息有类型,适合程序处理(js),较XML简洁。 移动应用云端和节点的信息通信,无注释。

YAML信息无类型,文本信息比例最高,可读性好。 各类系统的配置文件,有注释易读。

(2)信息提取

Beautiful Soup库提供了<>.find_all()函数,返回一个列表类型,存储查找的结果。

详细介绍如下:

示例代码如下:

扩展方法如下:

3. Beautiful Soup库实例--&&中文对齐问题的解决

功能描述:

输入:大学排名URL链接

输出:大学排名信息的屏幕输出(排名,大学名称,总分)

技术路线:requests‐bs4

定向爬虫:仅对输入URL进行爬取,不扩展爬取

程序的结构设计:

步骤1:从网络上获取大学排名网页内容 getHTMLText()

步骤2:提取网页内容中信息到合适的数据结构 fillUnivList()

步骤3:利用数据结构展示并输出结果 printUnivList()

输出结果如下:

源代码如下:


import requests
from bs4 import BeautifulSoup
import bs4def getHTMLText(url):try:r = requests.get(url, timeout=30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""def fillUnivList(ulist, html):soup = BeautifulSoup(html, "html.parser")for tr in soup.find('tbody').children: #遍历表签树if isinstance(tr, bs4.element.Tag):tds = tr('td') #简写,等价于下一行代码            #tds = tr.find_all('td')ulist.append([tds[0].string, tds[1].string, tds[2].string,tds[3].string])def printUnivList(ulist, num):tplt = "{0:^10}\t{1:{4}^8}\t{2:6}\t{3:10}"print(tplt.format("排名","学校名称","城市","总分",chr(12288)))for i in range(num):u=ulist[i]print(tplt.format(u[0],u[1],u[2],u[3],chr(12288)))def main():uinfo = []url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'html = getHTMLText(url)fillUnivList(uinfo, html)printUnivList(uinfo, 20) # 20 univs
main()

中文对齐问题的原因:

当中文字符宽度不够时,采用西文字符填充;中西文字符占用宽度不同。

解决方法:

采用中文字符的空格填充chr(12288)
--------------------- 
作者:i_chaoren 
来源:CSDN 
原文:https://blog.csdn.net/i_chaoren/article/details/63282877 
版权声明:本文为博主原创文章,转载请附上博文链接!

Python beautiful soup解析html获得数据相关推荐

  1. 可爱的 Python: 使用 mechanize 和 Beautiful Soup 轻松收集 Web 数据

    可爱的 Python: 使用 mechanize 和 Beautiful Soup 轻松收集 Web 数据 使用 Python 工具简化 Web 站点数据的提取和组织 David Mertz, Ph. ...

  2. 爬虫5_python2_使用 Beautiful Soup 解析数据

    使用 Beautiful Soup 解析数据(感谢东哥) 有的小伙伴们对写正则表达式的写法用得不熟练,没关系,我们还有一个更强大的工具,叫Beautiful Soup,有了它我们可以很方便地提取出HT ...

  3. 【Python beautiful soup】如何用beautiful soup 解析HTML内容

    美丽汤(Beautiful Soup)是一个流行的Python库,用于从HTML或XML文件中提取数据.它将复杂的HTML文件转化为一个Python对象,使得用户可以更方便地解析.搜索和修改HTML内 ...

  4. python与网页交互_可爱的 Python: 使用 mechanize 和 Beautiful Soup 轻松收集 Web 数据

    可爱的 Python 使用 mechanize 和 Beautiful Soup 轻松收集 Web 数据 使用 Python 工具简化 Web 站点数据的提取和组织 David Mertz 2010 ...

  5. html标签 补全方法 python,Python Beautiful Soup学习之HTML标签补全功能

    Beautiful Soup是一个非常流行的Python模块.该模块可以解析网页,并提供定位内容的便捷接口. 使用下面两个命令安装: pip install beautifulsoup4或者 sudo ...

  6. python中beautifulsoup是什么,Python Beautiful Soup简介

    Beautiful Soup简介 Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式. Beau ...

  7. Python : Beautiful Soup修改文档树

    修改文档树 Beautiful Soup的强项是文档树的搜索,但同时也可以方便的修改文档树 修改tag的名称和属性 在 Attributes 的章节中已经介绍过这个功能,但是再看一遍也无妨. 重命名一 ...

  8. Python 使用cinrad解析雷达基数据

    Python 使用cinrad 解析雷达基数据 1.安装cinrad模块 2.代码 3.效果图 4.注意地方 5.遇到的问题 1.安装cinrad模块 git地址: https://github.co ...

  9. python中beautifulsoup_面向新手解析python Beautiful Soup基本用法

    Beautiful Soup就是Python的一个HTML或XML的解析库,可以用它来方便地从网页中提取数据.它有如下三个特点: Beautiful Soup提供一些简单的.Python式的函数来处理 ...

  10. python soup_面向新手解析python Beautiful Soup基本用法

    Beautiful Soup就是Python的一个HTML或XML的解析库,可以用它来方便地从网页中提取数据.它有如下三个特点: Beautiful Soup提供一些简单的.Python式的函数来处理 ...

最新文章

  1. B - Modular Inverse
  2. lintcode-171-乱序字符串
  3. 2019年春季学期第四周作业
  4. asp python 定时任务_Ubuntu使用crontab定时执行python脚本
  5. 关于打印数组一直输出地址符号的一个解决方法
  6. Android TextView 显示圆圈背景或者设置圆角、圆形
  7. mysql gridview_DateGridView控件与mysql交互
  8. Docker 安装 maven 私服
  9. 2.4G天线在PCB板上的设计资料
  10. oeasy教您玩转vim - 88 - # 自动命令autocmd
  11. 笔记本键盘失灵怎么办? 笔记本电脑按键失灵的一般解决办法
  12. 云计算实验(二)Hadoop 练习
  13. (C语言版)百钱买百鸡问题:公鸡五文钱一只,母鸡三文钱一只,小鸡三只一文钱, 用100文钱买100只鸡,公鸡、母鸡、小鸡各买多少只?
  14. 【工作笔记】微信公众号页面摇一摇+触发音效
  15. CAD中插入外部参照字体会变繁体_为什么CAD图纸作为外部参照插入后有些文字消失?...
  16. 浏览器 User-Agent 大全
  17. 正整数的四则运算表达式 C++实现
  18. c语言fseek函数的总结
  19. 一个关于vmware虚拟机没有声音的玄学解决方案
  20. BootStrap---day02、03微金所项目

热门文章

  1. arcgis runtime for android 100.13.0 入门系列,三、加载shp,kml,tpk文件,图层定位,toolkit工具
  2. 是谁在觊觎娱乐圈站点?揭秘神秘黑客组织-黑界
  3. MyBatisPlus-基础CRUD操作
  4. 计算机科班比其他专业有多少优势呢?
  5. 从共享征信黑名单到建立白名单体系:LinkEye想打造基于区块链的征信联盟
  6. coldfusion_Coldfusion数据结构简介第IV部分–查询
  7. 关于git reset --hard这个命令的惨痛教训
  8. XFS (dm-0) I/O error问题修复
  9. 在Unity3D中制作VR全景视频、图片
  10. Istio入坑指南(二) Istio的安装与简单的使用