python如何修改网页_python爬虫:使用BeautifulSoup修改网页内容
BeautifulSoup除了可以查找和定位网页内容,还可以修改网页。修改意味着可以增加或删除标签,改变标签名字,变更标签属性,改变文本内容等等。
使用修BeautifulSoup修改标签
每一个标签在BeautifulSoup里面都被当作一个标签对象,这个对象可以执行以下任务:
修改标签名
修改标签属性
增加新标签
删除存在的标签
修改标签的文本内容
修改标签的名字
只需要修改.name参数就可以修改标签名字。
producer_entries.name = "div"怎么办嘛
你咋这么说
修改标签的属性
修改标签的属性如class,id,style等。因为属性以字典形式储存,所以改变标签属性就是简单的处理Python的字典。
更新已经存在属性的标签
可以参照如下代码:
producer_entries['id']="producers_new_value"
为一个标签增加一个新的属性
比如一个标签没有class属性,那么可以参照如下代码增加class属性,
producer_entries['class']='newclass'
删除标签属性
使用del操作符,示例如下:
del producer_entries['class']
增加一个新的标签
BeautifulSoup有new_tag()方法来创造一个新的标签。然后可以使用append(),insert(),insert_after()或者insert_before()等方法来对新标签进行插入。
增加一个新生产者,使用new_tag()然后append()
参照前面例子,生产者除了plants和alage外,我们现在添加一个phytoplankton.首先,需要先创造一个li标签。
用new_tag()创建一个新标签
new_tag()方法只能用于BeautifulSoup对象。现在创建一个li对象。
soup = BeautifulSoup(html_markup,"lxml")
new_li_tag = soup.new_tag("li")
new_tag()对象必须的参数是标签名,其他标签属性参数或其他参数都是可选参数。举例:
new_atag=soup.new_tag("a",href="www.example.com")
new_li_tag.attrs={'class':'producerlist'}
使用append()方法添加新标签
append()方法添加新标签于,contents之后,就跟python列表方法append()一样。
producer_entries = soup.ul
producer_entries.append(new_li_tag)
li标签是ul标签的子代,添加新标签后的输出结果。
plants
100000
algae
100000
s
使用insert()向li标签中添加新的div标签
append()在.contents之后添加新标签,而insert()却不是如此。我们需要指定插入的位置。就跟python中的Insert()方法一样。
new_div_name_tag=soup.new_tag("div")
new_div_name_tag["class"]="name"
new_div_number_tag=soup.new_tag("div")
new_div_number_tag["class"]="number"
先是创建两个div标签
new_li_tag.insert(0,new_div_name_tag)
new_li_tag.insert(1,new_div_number_tag)
print(new_li_tag.prettify())
然后进行插入,输出效果如下:
改变字符串内容
在上面例子中,只是添加了标签,但标签中却没有内容,如果想添加内容的话,BeautifulSoup也可以做到。
使用.string修改字符串内容
比如:
new_div_name_tag.string="phytoplankton"
print(producer_entries.prettify())
输出如下:
plants
100000
algae
100000
phytoplankton
使用.append/(),insert(),和new_string()添加字符串
使用append()和insert()的效果就跟用在添加新标签中一样。比如:
new_div_name_tag.append("producer")
print(soup.prettify())
输出:
plants
100000
algae
100000
phytoplankton
producer
还有一个new_string()方法,
new_string_toappend = soup.new_string("producer")
new_div_name_tag.append(new_string_toappend)
从网页中删除一个标签
删除标签的方法有decomose()和extract()方法
使用decompose()删除生产者
我们现在移去class="name"属性的div标签,使用decompose()方法。
third_producer = soup.find_all("li")[2]
div_name = third_producer.div
div_name.decompose()
print(third_producer.prettify())
输出:
10000
decompose()方法会移去标签及标签的子代。
使用extract()删除生产者
extract()用于删除一个HTMNL文档中昂的标签或者字符串,另外,它还返回一个被删除掉的标签或字符串的句柄。不同于decompose(),extract也可以用于字符串。
third_producer_removed=third_producer.extract()
print(soup.prettify())
使用BeautifulSoup删除标签的内容
标签可以有一个NavigableString对象或tag对象作为子代。删除掉这些子代可以使用clear()
举例,可以移掉带有plants的div标签和 相应的class=number属性标签。
li_plants=soup.li
li_plants.clear()
输出:
可以看出跟li相关的标签内容被删除干净。
修改内容的特别函数
除了我们之前看到的那些方法,BeautifulSoup还有其他修改内容的方法。
Insert_after()和Insert_before()方法:
这两个方法用于在标签或字符串之前或之后插入标签或字符串。这个方法需要的参数只有NavigavleString和tag对象。
soup = BeautifulSoup(html_markup,"lxml")
div_number = soup.find("div",class_="number")
div_ecosystem = soup.new_tag("div")
div_ecosystem['class'] = "ecosystem"
div_ecosystem.append("soil")
div_number.insert_after(div_ecosystem)
print(soup.prettify())
输出:
plants
100000
soil
algae
100000
replace_with()方法:
这个方法用于用一个新的标签或字符串替代原有的标签或字符串。这个方法把一个标签对象或字符串对象作为输入。replace_with()会返回一个被替代标签或字符串的句柄。
soup = BeautifulSoup(html_markup,"lxml")
div_name =soup.div
div_name.string.replace_with("phytoplankton")
print(soup.prettify())
replace_with()同样也可以用于完全的替换掉一个标签。
wrap()和unwrap()方法:
wrap()方法用于在一个标签或字符串外包裹一个标签或字符串。比如可以用一个div标签包裹li标签里的全部内容。
li_tags = soup.find_all("li")
for li in li_tags:
new_divtag = soup.new_tag("div")
li.wrap(new_divtag)
print(soup.prettify())
而unwrap()就跟wrap()做的事情相反。unwrap()和replace_with()一样会返回被替代的标签句柄。
python如何修改网页_python爬虫:使用BeautifulSoup修改网页内容相关推荐
- python requests下载网页_python爬虫 requests-html的使用
一 介绍 Python上有一个非常著名的HTTP库--requests,相信大家都听说过,用过的人都说非常爽!现在requests库的作者又发布了一个新库,叫做requests-html,看名字也能猜 ...
- python如何解析网页_Python爬虫入门第一课:如何解析网页
前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 以下文章来源于肥宅与画家 ,作者AntzUhl 我们编写网络爬虫最主要的目 ...
- python执行javascript网页_Python 爬虫如何优雅地执行 javascript 函数
最近想买内存条,京东上看了价格一直没降,于是找了个可以看历史价格的网站:查询商品历史价格走势(支持京东,天猫,淘宝等)APP - 慢慢买tool.manmanbuy.com 这个网站功能挺强大,可以 ...
- python爬虫beautifulsoup爬当当网_Python爬虫包 BeautifulSoup 递归抓取实例详解_python_脚本之家...
Python爬虫包 BeautifulSoup 递归抓取实例详解 概要: 爬虫的主要目的就是为了沿着网络抓取需要的内容.它们的本质是一种递归的过程.它们首先需要获得网页的内容,然后分析页面内容并找到 ...
- python爬虫提取a标签_Python爬虫库BeautifulSoup获取对象(标签)名,属性,内容,注释
一.Tag(标签)对象 1.Tag对象与XML或HTML原生文档中的tag相同. from bs4 import BeautifulSoup soup = BeautifulSoup('Extreme ...
- python tag对象下有多个标签、属性_Python爬虫库BeautifulSoup获取对象(标签)名,属性,内容,注释...
Apple iPhone 11 (A2223) 128GB 黑色 移动联通电信4G手机 双卡双待 4999元包邮 去购买 > 如何利用Python爬虫库BeautifulSoup获取对象(标签) ...
- python获取标签属性值_Python爬虫库BeautifulSoup获取对象(标签)名,属性,内容,注释
更多python教程请到: 菜鸟教程www.piaodoo.com 人人影视www.sfkyty.com 16影视www.591319.com 星辰影院www.591319.com 一.Tag(标签) ...
- 如何运用python爬游戏皮肤_Python爬虫练习:20行Python代码爬取王者荣耀全英雄皮肤...
引言王者荣耀大家都玩过吧,没玩过的也应该听说过,作为时下最火的手机MOBA游戏,咳咳,好像跑题了.我们今天的重点是爬取王者荣耀所有英雄的所有皮肤,而且仅仅使用20行Python代码即可完成. 准备工作 ...
- 爬虫python下载网站所有图片_python爬虫(4):多页图片批量下载-澎湃网信息图...
澎湃网文章的质量不错,它的"美数课"栏目的信息图做得也很好.图片干货多还能带来ppt和图表制作的技巧.为了更方便浏览所有文章图片,通过分析Ajax爬取栏目至今所有信息图的图片. 但 ...
最新文章
- python神秘的魔法函数_Python魔法函数
- 30天敏捷结果(5):使用热图标识出重要事情
- linux下安装nagios
- .NET泛型解析(上)
- java插入数据库字段过长_数据库插入数据长度过大,出现提示:将截断字符串或二进制数据...
- 最大公约数和最小公倍数 模板
- 机器学习面试题(part2)
- 在Java里重写equals和hashCode要注意什么问题
- 数学建模及其算法概述
- JavaScript之对象序列化详解
- 应用Rational工具简化基于J2EE项目(四)分析和工具的进展
- Illustrator 教程,如何在 Illustrator 中添加图像?
- -ia utopia 里的乌托邦
- 校验码——CRC循环冗余校验码,码距,例题
- 分享十一个学习css的小游戏,快来下载吧!
- 给自己定个一年后的终极目标!
- 2016.8.26 动态规划及杂题选讲 [树形dp] [数论] [矩阵快速幂]
- ISP Pipeline AWB
- UC浏览器设置代理服务器JAVA_uc浏览器让JAVA手机变“聪明”的方法
- php基于微信小程序的医院预约挂号系统 uinapp 计算机毕业设计
热门文章
- Codeforces 922E Birds
- dsp处理浮点数_DSP中浮点数的表示方法
- linux安装宝塔 VNC,Linux 安装宝塔面板(CentOS 8.2)
- 给校招新员工的项目管理课程
- Educoder - Java面向对象 - 类与对象各关卡题目总结
- ADC双音测试:two tone test for ADC
- 什么是农业信息化系统
- VS调试器开机提示“HPLaserJetService.exe“发生未经处理的异常-解决方案
- 量子计算机交叉学,第二届UTS量子计算机科学冬令营顺利闭幕
- 大家是如何释放工作压力的方法总结