目录

一、基本介绍

二、安装以及创建

三、BeautifulSoup使用

3.1、Json文件内容

3.2、BeautifulSoup语法

3.2.1、find

3.2.2、find_all

3.2.3、select

3.3、节点信息

3.3.1、获取节点内容

3.3.2、节点属性(输出节点包含哪些属性)

3.3.3、获取节点的属性值(输出节点属性的属性值)

四、实例(获取星巴克菜单信息)


一、基本介绍

1、BeautifulSoup简称:bs4

2、BeautifulSoup是什么:

BeautifulSoup和 lxml 一样,是一个 html 的解析器,主要功能也是解析和提取数据

3、BeautifulSoup优缺点:

缺点:效率没有 lxml 的效率高

优点:接口设计人性化,使用方便

二、安装以及创建

三、BeautifulSoup使用

3.1、Json文件内容

<!DOCTYPE html>
<html lang="en">
<head><meta charset="UTF-8"><title>Title</title>
</head>
<body><div><ul><li id="l1">张三</li><li id="l2">李四</li><li>王五</li><a href="" id="" class="a1">尚硅谷</a></ul></div><span href="" title="a2">尚硅谷</span><a href="" title="a2">尚硅谷</a><div id="d1"><span>哈哈哈</span></div><p id="p1" class="p1">呵呵呵</p>
</body>
</html>

3.2、BeautifulSoup语法

3.2.1、find

from bs4 import BeautifulSoup# 通过解析本地文件,来讲bs4的基础语法进行讲解
# 默认打开文件的编码格式是gbk,故需要指定编码格式
soup = BeautifulSoup(open('22_爬虫_解析_bs4的基本使用.html', encoding='utf8'), 'lxml')# 1、find
# 1.1返回第一个符合条件的数据
print(soup.find('a'))
# 1.2根据title的值找到对应的标签对象
print(soup.find('a', title='a2'))
# 1.3根据class属性找到对应的标签对象,注意:class需要添加下划线"_"
print(soup.find('a', class_='a1'))

3.2.2、find_all

from bs4 import BeautifulSoup# 通过解析本地文件,来讲bs4的基础语法进行讲解
# 默认打开文件的编码格式是gbk,故需要指定编码格式
soup = BeautifulSoup(open('22_爬虫_解析_bs4的基本使用.html', encoding='utf8'), 'lxml')# 2、find_all
# 2.1、返回一个列表,并返回所有的a标签
print(soup.find_all('a'))
# 2.2、如果想获取的是多个标签的数据,那么需要在find_all的参数中添加的是列表的数据
print(soup.find_all(['a', 'span']))
# 2.3、limit作用:查找前几个数据
print(soup.find_all('li', limit=2))

3.2.3、select

from bs4 import BeautifulSoup# 通过解析本地文件,来讲bs4的基础语法进行讲解
# 默认打开文件的编码格式是gbk,故需要指定编码格式
soup = BeautifulSoup(open('22_爬虫_解析_bs4的基本使用.html', encoding='utf8'), 'lxml')# 3、select(推荐)
# 3.1、select方法返回的是一个列表,并且会返回多个数据
print(soup.select('a'))# 3.2、可以通过.代表class,我们把这种操作叫做类选择器
print(soup.select('.a1'))# 3.3、可以通过#代表id,我们把这种操作叫做id选择器
print(soup.select('#l1'))# 3.4、属性选择器——通过属性寻找对应的标签
# 3.4.1、查找到li标签中有id的标签
print(soup.select('li[id]'))
# 3.4.2、查找到li标签中id为l2的标签
print(soup.select('li[id="l2"]'))# 3.5、层级选择器
# 3.5.1、后代选择器:找到div下面的li
print(soup.select('div li'))
# 3.5.2、子代选择器:某标签的第一级子标签
# 注意:很多的计算机编程语言中,如果不加”空格“,不会输出内容;但是在bs4中不会报错,会显示内容
print(soup.select('div > ul > li'))
# 3.5.3、找到a标签和li标签的所有对象
print(soup.select('a, li'))

3.3、节点信息

3.3.1、获取节点内容

obj = soup.select('#d1')[0]    # 节点id=d1返回得到的obj是个列表
# 如果标签对象中 只有内容 那么string和get_text()都可以使用
# 如果标签对象中 除了内容还有标签 那么string就获取不到数据;和get_text()可以获取数据
# 一般情况下,推荐使用get_text()
print(obj.string)
print(obj.get_text())

3.3.2、节点属性(输出节点包含哪些属性)

obj = soup.select('#p1')[0]    # 节点id=p1
# 2.2.1、name是标签的名字<div>、<span>等
print(obj.name)
# 2.2.2、attrs将属性值作为一个字典返回
print(obj.attrs)

3.3.3、获取节点的属性值(输出节点属性的属性值)

obj = soup.select('#p1')[0]
# 获取节点的class属性
print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])

四、实例(获取星巴克菜单信息)

import urllib.request
from bs4 import BeautifulSoupurl = 'https://www.starbucks.com.cn/menu/'response = urllib.request.urlopen(url)content = response.read().decode('utf8')soup = BeautifulSoup(content, 'lxml')# //ul[@class="grid padded-3 product"]//strong/text()
name_list = soup.select('ul[class="grid padded-3 product"] strong')
for name in name_list:print(name.string)

数据解析——BeautifulSoup相关推荐

  1. Python学习 Day43 数据解析-BeautifulSoup 07

    BeautifulSoup 解析数据 一.BeautifulSoup概述 1.BeautifulSoup 是一个可以从HTML或XML文档中提取数据的Python库 功能简单强大.容错能力高.文档相对 ...

  2. Day 10 10.1 数据解析方法之-BS4

    BS4 [1]简介 简单来说,Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据.官方解释如下: ''' Beautiful Soup提供一些简单的.python式的函数 ...

  3. beautifulsoup解析动态页面div未展开_Python爬虫 | 0xb 数据解析:PyQuery库

    (给抠腚男孩加星标,提升Python.Android技能) 作者:CoderPig 本节带来数据解析部分最后一个解析库PyQuery,它的API和前端著名框架jQuery相似,名字由此而来.如果你有前 ...

  4. 爬虫之网络数据解析的三种方式---正则表达式、XPath数据解析库、BeautifulSoup数据解析库

    1.正则表达式 爬虫的四个主要步骤: 明确目标(要知道你准备取哪个范围或者网站上取搜索) 爬(将所有网站的内容全部爬下来) 取(取掉对我们没用的数据) 处理数据(按照我们想要的方式存储和使用) 什么是 ...

  5. 图片爬取数据解析数据持久化

    文章目录 1.图片下载 2.JS动态渲染 3.数据解析 4.持久化存储 1.图片下载 百度图片:http://image.baidu.com/ 搜狗图片:https://pic.sogou.com/ ...

  6. python爬虫中三种数据解析方式

    一.正解解析 常用正则表达式: 单字符: .: 除换行以外所有字符 []:[aoe] [a-w]匹配集合中任意一个字符 \d:数字 [0-9] \D: 非数字 \w :数字.字母.下划线.中文 \W ...

  7. Python爬虫之旅_(数据解析)_Xpath

    前言: 上次学习过了BeautifulSoup进行解析的,这次就来学习一下Xpath进行解析 0x00:了解Xpath Xpath解析:最常用且最高效的一种解析方式 Xpath解析原理:--1.实例化 ...

  8. Python爬虫之旅_(数据解析)_bs4

    前言: 这次来学习数据解析这方面的知识! 0x00:了解数据解析 在ONE那一篇中,就提到过聚焦爬虫(爬取页面中指定内容),大部分的爬虫都是聚焦爬虫,但我们刚开始爬取的肯定都是整个页面的数据,如何定位 ...

  9. html解析のBeautifulSoup

    引子: 使用python爬虫对爬取网页进行解析的时候,如果使用正则表达式,有很多局限,比如标签中出现换行,或者标签的格式不规范,都有可能出现取不到数据,BeautifulSoup作为一个专门处理htm ...

最新文章

  1. iframe高度动态自适应
  2. 【Android 插件化】DroidPlugin 编译运行 ( DroidPlugin 简介 | 编译 DroidPlugin 官方示例 | 运行 DroidPlugin 官方示例 )
  3. 由树先序遍历和中序遍历输出其后续遍历
  4. supervisor使用指南
  5. easyui select 下拉框的取值和赋值
  6. 飞船赛——FOJ 1021
  7. 【加解密学习笔记:第三天】OllyDbg断点介绍
  8. 在新版linux上编译老版本的kernel出现kernel/timeconst.h] Error 255
  9. Shell脚本查询进程存活信息
  10. 海康ehome协议分析(3):PTZ云台控制
  11. Android类加载器
  12. (一)PC 机与单片机通信(RS232 协议)【800个电子设计大赛资料合集】
  13. 域渗透——获取用户明文密码
  14. 关于计算机信息管理专业教学改革的相关文章,计算机信息管理专业论文范文
  15. 【7集iCore3基础视频】7-5 iTool2驱动安装
  16. UI界面视觉设计之图片和图标
  17. 安卓动画系统 - 安卓R
  18. Vue 基础之常用内置指令
  19. dp线长什么样子_如何选一根好的DP线?不同DP线有什么区别?
  20. yox.js 的使用

热门文章

  1. 谷歌地图标注商户_谷歌AR地图导航标注3D显示精确定位?
  2. 半导体功率器件的发展及测试
  3. Python期末复习笔记
  4. Gerber文件解析软件介绍(RS-274G-code)
  5. React脚手架及CRA脚手架的使用
  6. mac如何清理缓存的垃圾?误删mac缓存怎么恢复
  7. 邯郸计算机学校排名2015,河北邯郸市10大名校排名!
  8. 网站全站变灰:愿逝者安息,愿生者奋发,愿祖国昌盛,致敬英雄
  9. 《互联网金融投资理财一册通》一一2.1 余额宝入门
  10. [86]ubuntu16.04下安装64位谷歌Chrome浏览器