正则数据解析酷狗与天气案例
目录
正则表达式的简介
概念
正则表达式的应用场景
正则表达式对Python的支持
普通字符
match()函数
元字符
预定义匹配字符集
重复匹配
位置匹配和非贪婪匹配
re模块常用方法
分组功能
案例1解析酷狗:
利用面向对象改写
案例2天气解析
正则表达式的简介
概念
正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑
正则表达式的应用场景
- 表单验证(例如 : 手机号、邮箱、身份证.... )
- 爬虫
正则表达式对Python的支持
普通字符
字母、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则
表达式中的普通字符,在匹配的时候,只匹配与自身相同的一个字符。
例如:表达式c,在匹配字符串abcde时,匹配结果是:成功;匹配到的内容
是c;匹配到的位置开始于2,结束于3。(注:下标从0开始还是从1开始,因
当前编程语言的不同而可能不同)
match()函数
- match(pattern, string, flags=0)
- 第一个参数是正则表达式,如果匹配成功,则返回一个match对象,否则返回一个None
- 第二个参数表示要匹配的字符串
- 第三个参数是标致位用于控制正则表达式的匹配方式 如: 是否区分大小写,多行匹配等等
元字符
正则表达式中使⽤了很多元字符,⽤来表示⼀些特殊的含义或功能
正则表达式的简介
概念
正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑
正则表达式的应用场景
- 表单验证(例如 : 手机号、邮箱、身份证.... )
- 爬虫
正则表达式对Python的支持
普通字符
字母、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则
表达式中的普通字符,在匹配的时候,只匹配与自身相同的一个字符。
例如:表达式c,在匹配字符串abcde时,匹配结果是:成功;匹配到的内容
是c;匹配到的位置开始于2,结束于3。(注:下标从0开始还是从1开始,因
当前编程语言的不同而可能不同)
match()函数
- match(pattern, string, flags=0)
- 第一个参数是正则表达式,如果匹配成功,则返回一个match对象,否则返回一个None
- 第二个参数表示要匹配的字符串
- 第三个参数是标致位用于控制正则表达式的匹配方式 如: 是否区分大小写,多行匹配等等
元字符
正则表达式中使⽤了很多元字符,⽤来表示⼀些特殊的含义或功能
一些无法书写或者具有特殊功能的字符,采用在前面加斜杠""进行转义的方法。
例如下表所示
尚未列出的还有问号?、星号*和括号等其他的符号。所有正则表达式中具有特殊含义的字符在匹配自身的时候,都要使用斜杠进行转义。这些转义字符的匹配用法与普通字符类似,也是匹配与之相同的一个字符
预定义匹配字符集
正则表达式中的一些表示方法,可以同时匹配某个预定义字符集中的任意一个字符。比如,表达式\d可以匹配任意一个数字。虽然可以匹配其中任意字符,但是只能是一个,不是多个
重复匹配
前面的表达式,无论是只能匹配一种字符的表达式,还是可以匹配多种字符其中任意一个的表达式,都只能匹配一次。但是有时候我们需要对某个字段进行重复匹配,例如手机号码13666666666,一般的新手可能会写成\d\d\d\d\d\d\d\d\d\d\d(注意,这不是一个恰当的表达式),不但写着费劲,看着也累,还不⼀定准确恰当。
这种情况可以使用表达式再加上修饰匹配次数的特殊符号{},不但重复书写表达式就可以重复匹配。例如[abcd][abcd]可以写成[abcd]{2}
位置匹配和非贪婪匹配
位置匹配
有时候,我们对匹配出现的位置有要求,比如开头、结尾、单词之间等等
贪婪与非贪婪模式
在重复匹配时,正则表达式默认总是尽可能多的匹配,这被称为贪婪模式。例如,针对文本dxxxdxxxd,表达式(d)(\w+)(d)中的\w+将匹配第一个d和最后一个d之间的所有字符xxxdxxx。可见,\w+在匹配的时候,总是尽可能多的匹配符合它规则的字符。同理,带有?、*和{m,n}的重复匹配表达式都是尽可能地多匹配
校验数字的相关表达式:
特殊场景的表达式:
re模块常用方法
compile(pattern, flags=0)
这个⽅法是re模块的工厂法,⽤于将字符串形式的正则表达式编译为Pattern模式对象,可以实现更加效率的匹配。第二个参数flag是匹配模式 使用compile()完成一次转换后,再次使用该匹配模式的时候就不能进行转换了。经过compile()转换的正则表达式对象也能使用普通的re⽅法
flag匹配模式
search(pattern, string, flags=0)
在文本内查找,返回第一个匹配到的字符串。它的返回值类型和使用方法与match()是一样的,唯一的区别就是查找的位置不用固定在文本的开头
findall(pattern, string, flags=0)
作为re模块的三大搜索函数之一,findall()和match()、search()的不同之处在于,前两者都是单值匹配,找到一个就忽略后面,直接返回不再查找了。而findall是全文查找,它的返回值是一个匹配到的字符串的列表。这个列表没有group()方法,没有start、end、span,更不是一个匹配对象,仅仅是个列表!如果一项都没有匹配到那么返回一个空列表
split(pattern, string, maxsplit=0, flags=0)
re模块的split()方法和字符串的split()方法很相似,都是利用特定的字符去分割字符串。但是re模块的split()可以使用正则表达式,因此更灵活,更强大
split有个参数maxsplit,用于指定分割的次数
sub(pattern, repl, string, count=0, flags=0)
sub()方法类似字符串的replace()方法,用指定的内容替换匹配到的字符,可以指定替换次数
分组功能
Python的re模块有一个分组功能。所谓的分组就是去已经匹配到的内容再筛选出需要的内容,相当于二次过滤。实现分组靠圆括号(),而获取分组的内容靠的是group()、groups(),其实前面我们已经展示过。re模块里的积个重要方法在分组上,有不同的表现形式,需要区别对待
一些无法书写或者具有特殊功能的字符,采用在前面加斜杠""进行转义的方法。
例如下表所示
尚未列出的还有问号?、星号*和括号等其他的符号。所有正则表达式中具有特殊含义的字符在匹配自身的时候,都要使用斜杠进行转义。这些转义字符的匹配用法与普通字符类似,也是匹配与之相同的一个字符
预定义匹配字符集
正则表达式中的一些表示方法,可以同时匹配某个预定义字符集中的任意一个字符。比如,表达式\d可以匹配任意一个数字。虽然可以匹配其中任意字符,但是只能是一个,不是多个
重复匹配
前面的表达式,无论是只能匹配一种字符的表达式,还是可以匹配多种字符其中任意一个的表达式,都只能匹配一次。但是有时候我们需要对某个字段进行重复匹配,例如手机号码13666666666,一般的新手可能会写成\d\d\d\d\d\d\d\d\d\d\d(注意,这不是一个恰当的表达式),不但写着费劲,看着也累,还不⼀定准确恰当。
这种情况可以使用表达式再加上修饰匹配次数的特殊符号{},不但重复书写表达式就可以重复匹配。例如[abcd][abcd]可以写成[abcd]{2}
位置匹配和非贪婪匹配
位置匹配
有时候,我们对匹配出现的位置有要求,比如开头、结尾、单词之间等等
贪婪与非贪婪模式
在重复匹配时,正则表达式默认总是尽可能多的匹配,这被称为贪婪模式。例如,针对文本dxxxdxxxd,表达式(d)(\w+)(d)中的\w+将匹配第一个d和最后一个d之间的所有字符xxxdxxx。可见,\w+在匹配的时候,总是尽可能多的匹配符合它规则的字符。同理,带有?、*和{m,n}的重复匹配表达式都是尽可能地多匹配
校验数字的相关表达式:
特殊场景的表达式:
re模块常用方法
compile(pattern, flags=0)
这个⽅法是re模块的工厂法,⽤于将字符串形式的正则表达式编译为Pattern模式对象,可以实现更加效率的匹配。第二个参数flag是匹配模式 使用compile()完成一次转换后,再次使用该匹配模式的时候就不能进行转换了。经过compile()转换的正则表达式对象也能使用普通的re⽅法
flag匹配模式
search(pattern, string, flags=0)
在文本内查找,返回第一个匹配到的字符串。它的返回值类型和使用方法与match()是一样的,唯一的区别就是查找的位置不用固定在文本的开头
findall(pattern, string, flags=0)
作为re模块的三大搜索函数之一,findall()和match()、search()的不同之处在于,前两者都是单值匹配,找到一个就忽略后面,直接返回不再查找了。而findall是全文查找,它的返回值是一个匹配到的字符串的列表。这个列表没有group()方法,没有start、end、span,更不是一个匹配对象,仅仅是个列表!如果一项都没有匹配到那么返回一个空列表
split(pattern, string, maxsplit=0, flags=0)
re模块的split()方法和字符串的split()方法很相似,都是利用特定的字符去分割字符串。但是re模块的split()可以使用正则表达式,因此更灵活,更强大
split有个参数maxsplit,用于指定分割的次数
sub(pattern, repl, string, count=0, flags=0)
sub()方法类似字符串的replace()方法,用指定的内容替换匹配到的字符,可以指定替换次数
分组功能
Python的re模块有一个分组功能。所谓的分组就是去已经匹配到的内容再筛选出需要的内容,相当于二次过滤。实现分组靠圆括号(),而获取分组的内容靠的是group()、groups(),其实前面我们已经展示过。re模块里的积个重要方法在分组上,有不同的表现形式,需要区别对待
案例1解析酷狗:
需求:目标网站:https://www.kugou.com/yy/html/rank.html
爬取要求:
1、获取到榜单页面的源码
2、用正则解析数据,获取到该页面所有歌曲的名字(包括歌手)和页
面链接
3、把数据保存到csv
# 目标网站:https://www.kugou.com/yy/html/rank.html
# 爬取要求:
# 1、获取到榜单页面的源码
# 2、用正则解析数据,获取到该页面所有歌曲的名字(包括歌手)和页
# 面链接
# 3、把数据保存到csv'''
1、分析页面:确定URL
2、发送请求,获取页面数据
3、解析数据
4、保存数据
'''
import requests
import re
import csv
'''
<a href="(.*?)".*?title="(.*?)".*?</a>
'''data_list=[]
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.82 Safari/537.36'
}
response = requests.get('https://www.kugou.com/yy/html/rank.html',headers=headers)
html = response.content.decode('utf-8') # 1、获取到榜单页面的源码
# print(html)
# 匹配ul标签
ul_tag = re.search('<ul>(.*?)</ul>',html,re.S)
# print(ul_tag)
# print(ul_tag.group(1))
# 匹配a标签
a_tag_list = re.findall('<a\s{2,}href="(.*?)".*?title="(.*?)".*?</a>',ul_tag.group(1),re.S)
for a_tag in a_tag_list:data_list.append(a_tag)print(a_tag)# 保存数据
with open('kg.csv','w', encoding='utf-8',newline="") as f:wt = csv.writer(f)wt.writerow(('链接','歌曲'))wt.writerows(data_list)
利用面向对象改写
# 面向对象改写
import requests
import re
import csvclass Tq(object):def __init__(self):self.data_list=[]self.headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.82 Safari/537.36'}def get_data(self):response = requests.get('https://www.kugou.com/yy/html/rank.html', headers=self.headers)html = response.content.decode('utf-8') # 1、获取到榜单页面的源码# print(html)# 匹配ul标签ul_tag = re.search('<ul>(.*?)</ul>', html, re.S)# print(ul_tag)# print(ul_tag.group(1))# 匹配a标签a_tag_list = re.findall('<a\s{2,}href="(.*?)".*?title="(.*?)".*?</a>', ul_tag.group(1), re.S)for a_tag in a_tag_list:self.data_list.append(a_tag)print(a_tag)def save_data(self):# 保存数据with open('kg2.csv', 'w', encoding='utf-8', newline="") as f:wt = csv.writer(f)wt.writerow(('链接', '歌曲'))wt.writerows(self.data_list)def run(self):self.get_data()self.save_data()if __name__ == '__main__':tq =Tq()tq.run()
案例2天气解析
需求:爬取近其他的天气(日期,天气,温度,风力)
确定url:http://www.weather.com.cn/weather/101250101.shtml
1. 获取整个网页源码
2. 获取ul数据
3. 在ul数据里面找li数据
4. 在li数据提取 日期,天气,温度,风力
保存到csv文件
# <span>23℃</span>
import requests
import csv
import reurl = 'http://www.weather.com.cn/weather/101250101.shtml'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.74 Safari/537.36'
}
# 发请求,获取响应
response = requests.get(url, headers=headers)
response.encoding = 'utf-8'
html = response.text
result = re.match(r'.*(<ul class="t clearfix">.*?</ul>).*', html, re.S)
ul = result.group(1)
lis = re.findall(r'<li.*?>.*?</li>', ul, re.S) # 匹配的数据放在列表里面
pattern = re.compile(r'<li.*?>.*?<h1>(.*?)</h1>.*?<p.*?>(.*?)</p>.*?<span>(.*?)</span>.*?<i>(.*?)</i>.*?<i>(.*?)</i>.*?</li>', re.S)
lst = []
for i in lis:r = pattern.match(i)if r:tu = (r.group(1),r.group(2),r.group(3)+"/"+r.group(4),r.group(5))lst.append(tu)with open('weather2.csv', 'w', encoding='utf-8', newline='') as f:# 创建写入对象writer = csv.writer(f)writer.writerow(['日期', '天气', '温度', '风力'])writer.writerows(lst)
正则数据解析酷狗与天气案例相关推荐
- java 爬取网页版的酷狗音乐,下载到本地
代码实现 import cn.hutool.http.HttpUtil; import com.alibaba.fastjson.JSONObject; import lombok.extern.sl ...
- python 爬虫(七)lxml模块 + lxml数据提取(字符串的xml/html文件--转换--element对象--转换--字符串)调用XPath方法筛选数据 + 案例(扇贝 酷狗 网易云音乐)
爬虫小知识:爬取网站流程 确定网站哪个url是数据的来源. 简要分析一下网站结构,查看数据一般放在哪里. 查看是否有分页,解决分页的问题. 发送请求,查看response.text里面是否有我们想要的 ...
- Python疫起学习·万丈高楼平地起Day09(精简版|浓缩就是精华)爬虫知识附上案例爬取北京地区短租房信息、爬取酷狗TOP500的数据以及爬取网易云音乐热歌榜单
爬虫知识 Requests库 部分运行结果如下: 有时爬虫需要加入请求头来伪装成浏览器,以便更好地抓取数据.在Chrome浏览器中按F12键打开Chrome开发者工具,刷新网页后找到User-Agen ...
- Python爬虫 爬取酷狗TOP500的数据
根据书籍<从零开始学Python网络爬虫>P41,综合案例2-爬取酷狗TOP500的数据修改而来. 使用模块requests和模块BeautifukSoup进行爬取. 不得不说,酷狗拿来跑 ...
- 酷狗音乐的大数据实践
2015-06-03 王劲 高可用架构 高可用架构 此文是根据酷狗音乐大数据架构师王劲在[QCON高可用架构群]中的分享内容整理而成,转发请注明出处. 王劲:目前就职酷狗音乐,大数据架构师,负责酷狗大 ...
- 数据解析学习笔记(正则解析、bs4解析、xpath解析)
聚焦爬虫:爬取页面中指定的页面内容. - 编码流程: - 指定url - 发起请求 - 获取响应数据 - 数据解析 - 持久化存储 数据解析分类: 正则 bs4 xpath(***) 数据解析原理概述 ...
- 电商大数据——用数据驱动电商和商业案例解析
电商大数据--用数据驱动电商和商业案例解析(国内第1本将大数据与电商完美结合的权威之作!) 雪鹰传奇 著 ISBN 978-7-121-22556-7 2014年3月出版 定价:98.00元 36 ...
- SpringBoot实现音乐网站解析(支持腾讯、网易、小米、酷狗)
[实例简介] 音乐网站解析,实现了在线搜索音乐并播放音乐的功能,支持音乐源 腾讯.网易.小米.酷狗 是spring学习非常不错的案例 [实例截图] 文件:590m.com/f/25127180-487 ...
- Python爬虫案例:爬取酷狗音乐全排行榜歌曲
前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 本次目标 爬取酷狗音乐全站排行榜歌曲 目标地址 https://www.ku ...
最新文章
- java web 开发应用 ----过滤器
- IT人为了自己父母和家庭,更得注意自己的身体和心理健康
- JAVA 游览时间最长,[蓝桥杯][算法训练]景点游览-题解(Java代码)
- 创建时间指定日期 java,Java避坑之如何创建指定时间Date对象
- 设计模式C++学习笔记之十三(Decorator装饰模式)
- Linux 高可用(HA)集群之keepalived
- 分针网——每日推荐:PHTML解析原理
- VSTO项目的MSB3482错误
- singleton pattern的推荐实现
- 独立游戏:四人团队如何100天做到百万用户
- python yield,到这个层次,才能叫深入哈
- vc6.0c语言如何延迟清屏时间,[转载]关于在vc6.0中输出运动的笑脸问题
- 捷联惯导算法(一)程序简单实现
- vb连接mysql的方法_VB几种连接数据库的方法
- 图解机器学习:人人都能懂的算法原理
- 计算机表格函数最大值操作,excel表格的各函数的基本操作
- chrome最简单的多开方法
- 加解密QQ旋风和迅雷链接地址
- 网站运营的十二条盈利模式
- python中@property的作用