目录

正则表达式的简介

概念

正则表达式的应用场景

正则表达式对Python的支持

普通字符

match()函数

元字符

预定义匹配字符集

重复匹配

位置匹配和非贪婪匹配

re模块常用方法

分组功能

案例1解析酷狗:

利用面向对象改写

案例2天气解析


正则表达式的简介

概念

正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑

正则表达式的应用场景

  • 表单验证(例如 : 手机号、邮箱、身份证....  )
  • 爬虫

正则表达式对Python的支持

普通字符

字母、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则

表达式中的普通字符,在匹配的时候,只匹配与自身相同的一个字符。

例如:表达式c,在匹配字符串abcde时,匹配结果是:成功;匹配到的内容

是c;匹配到的位置开始于2,结束于3。(注:下标从0开始还是从1开始,因

当前编程语言的不同而可能不同)

match()函数

  • match(pattern, string, flags=0)
  • 第一个参数是正则表达式,如果匹配成功,则返回一个match对象,否则返回一个None
  • 第二个参数表示要匹配的字符串
  • 第三个参数是标致位用于控制正则表达式的匹配方式 如: 是否区分大小写,多行匹配等等

元字符

正则表达式中使⽤了很多元字符,⽤来表示⼀些特殊的含义或功能

正则表达式的简介

概念

正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑

正则表达式的应用场景

  • 表单验证(例如 : 手机号、邮箱、身份证....  )
  • 爬虫

正则表达式对Python的支持

普通字符

字母、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则

表达式中的普通字符,在匹配的时候,只匹配与自身相同的一个字符。

例如:表达式c,在匹配字符串abcde时,匹配结果是:成功;匹配到的内容

是c;匹配到的位置开始于2,结束于3。(注:下标从0开始还是从1开始,因

当前编程语言的不同而可能不同)

match()函数

  • match(pattern, string, flags=0)
  • 第一个参数是正则表达式,如果匹配成功,则返回一个match对象,否则返回一个None
  • 第二个参数表示要匹配的字符串
  • 第三个参数是标致位用于控制正则表达式的匹配方式 如: 是否区分大小写,多行匹配等等

元字符

正则表达式中使⽤了很多元字符,⽤来表示⼀些特殊的含义或功能

一些无法书写或者具有特殊功能的字符,采用在前面加斜杠""进行转义的方法。

例如下表所示

尚未列出的还有问号?、星号*和括号等其他的符号。所有正则表达式中具有特殊含义的字符在匹配自身的时候,都要使用斜杠进行转义。这些转义字符的匹配用法与普通字符类似,也是匹配与之相同的一个字符

预定义匹配字符集

正则表达式中的一些表示方法,可以同时匹配某个预定义字符集中的任意一个字符。比如,表达式\d可以匹配任意一个数字。虽然可以匹配其中任意字符,但是只能是一个,不是多个

重复匹配

前面的表达式,无论是只能匹配一种字符的表达式,还是可以匹配多种字符其中任意一个的表达式,都只能匹配一次。但是有时候我们需要对某个字段进行重复匹配,例如手机号码13666666666,一般的新手可能会写成\d\d\d\d\d\d\d\d\d\d\d(注意,这不是一个恰当的表达式),不但写着费劲,看着也累,还不⼀定准确恰当。

这种情况可以使用表达式再加上修饰匹配次数的特殊符号{},不但重复书写表达式就可以重复匹配。例如[abcd][abcd]可以写成[abcd]{2}

位置匹配和非贪婪匹配

位置匹配

有时候,我们对匹配出现的位置有要求,比如开头、结尾、单词之间等等

贪婪与非贪婪模式

在重复匹配时,正则表达式默认总是尽可能多的匹配,这被称为贪婪模式。例如,针对文本dxxxdxxxd,表达式(d)(\w+)(d)中的\w+将匹配第一个d和最后一个d之间的所有字符xxxdxxx。可见,\w+在匹配的时候,总是尽可能多的匹配符合它规则的字符。同理,带有?、*和{m,n}的重复匹配表达式都是尽可能地多匹配

校验数字的相关表达式:

特殊场景的表达式:

re模块常用方法

compile(pattern, flags=0)

这个⽅法是re模块的工厂法,⽤于将字符串形式的正则表达式编译为Pattern模式对象,可以实现更加效率的匹配。第二个参数flag是匹配模式 使用compile()完成一次转换后,再次使用该匹配模式的时候就不能进行转换了。经过compile()转换的正则表达式对象也能使用普通的re⽅法

flag匹配模式

search(pattern, string, flags=0)

在文本内查找,返回第一个匹配到的字符串。它的返回值类型和使用方法与match()是一样的,唯一的区别就是查找的位置不用固定在文本的开头

findall(pattern, string, flags=0)

作为re模块的三大搜索函数之一,findall()和match()、search()的不同之处在于,前两者都是单值匹配,找到一个就忽略后面,直接返回不再查找了。而findall是全文查找,它的返回值是一个匹配到的字符串的列表。这个列表没有group()方法,没有start、end、span,更不是一个匹配对象,仅仅是个列表!如果一项都没有匹配到那么返回一个空列表

split(pattern, string, maxsplit=0, flags=0)

re模块的split()方法和字符串的split()方法很相似,都是利用特定的字符去分割字符串。但是re模块的split()可以使用正则表达式,因此更灵活,更强大

split有个参数maxsplit,用于指定分割的次数

sub(pattern, repl, string, count=0, flags=0)

sub()方法类似字符串的replace()方法,用指定的内容替换匹配到的字符,可以指定替换次数

分组功能

Python的re模块有一个分组功能。所谓的分组就是去已经匹配到的内容再筛选出需要的内容,相当于二次过滤。实现分组靠圆括号(),而获取分组的内容靠的是group()、groups(),其实前面我们已经展示过。re模块里的积个重要方法在分组上,有不同的表现形式,需要区别对待

一些无法书写或者具有特殊功能的字符,采用在前面加斜杠""进行转义的方法。

例如下表所示

尚未列出的还有问号?、星号*和括号等其他的符号。所有正则表达式中具有特殊含义的字符在匹配自身的时候,都要使用斜杠进行转义。这些转义字符的匹配用法与普通字符类似,也是匹配与之相同的一个字符

预定义匹配字符集

正则表达式中的一些表示方法,可以同时匹配某个预定义字符集中的任意一个字符。比如,表达式\d可以匹配任意一个数字。虽然可以匹配其中任意字符,但是只能是一个,不是多个

重复匹配

前面的表达式,无论是只能匹配一种字符的表达式,还是可以匹配多种字符其中任意一个的表达式,都只能匹配一次。但是有时候我们需要对某个字段进行重复匹配,例如手机号码13666666666,一般的新手可能会写成\d\d\d\d\d\d\d\d\d\d\d(注意,这不是一个恰当的表达式),不但写着费劲,看着也累,还不⼀定准确恰当。

这种情况可以使用表达式再加上修饰匹配次数的特殊符号{},不但重复书写表达式就可以重复匹配。例如[abcd][abcd]可以写成[abcd]{2}

位置匹配和非贪婪匹配

位置匹配

有时候,我们对匹配出现的位置有要求,比如开头、结尾、单词之间等等

贪婪与非贪婪模式

在重复匹配时,正则表达式默认总是尽可能多的匹配,这被称为贪婪模式。例如,针对文本dxxxdxxxd,表达式(d)(\w+)(d)中的\w+将匹配第一个d和最后一个d之间的所有字符xxxdxxx。可见,\w+在匹配的时候,总是尽可能多的匹配符合它规则的字符。同理,带有?、*和{m,n}的重复匹配表达式都是尽可能地多匹配

校验数字的相关表达式:

特殊场景的表达式:

re模块常用方法

compile(pattern, flags=0)

这个⽅法是re模块的工厂法,⽤于将字符串形式的正则表达式编译为Pattern模式对象,可以实现更加效率的匹配。第二个参数flag是匹配模式 使用compile()完成一次转换后,再次使用该匹配模式的时候就不能进行转换了。经过compile()转换的正则表达式对象也能使用普通的re⽅法

flag匹配模式

search(pattern, string, flags=0)

在文本内查找,返回第一个匹配到的字符串。它的返回值类型和使用方法与match()是一样的,唯一的区别就是查找的位置不用固定在文本的开头

findall(pattern, string, flags=0)

作为re模块的三大搜索函数之一,findall()和match()、search()的不同之处在于,前两者都是单值匹配,找到一个就忽略后面,直接返回不再查找了。而findall是全文查找,它的返回值是一个匹配到的字符串的列表。这个列表没有group()方法,没有start、end、span,更不是一个匹配对象,仅仅是个列表!如果一项都没有匹配到那么返回一个空列表

split(pattern, string, maxsplit=0, flags=0)

re模块的split()方法和字符串的split()方法很相似,都是利用特定的字符去分割字符串。但是re模块的split()可以使用正则表达式,因此更灵活,更强大

split有个参数maxsplit,用于指定分割的次数

sub(pattern, repl, string, count=0, flags=0)

sub()方法类似字符串的replace()方法,用指定的内容替换匹配到的字符,可以指定替换次数

分组功能

Python的re模块有一个分组功能。所谓的分组就是去已经匹配到的内容再筛选出需要的内容,相当于二次过滤。实现分组靠圆括号(),而获取分组的内容靠的是group()、groups(),其实前面我们已经展示过。re模块里的积个重要方法在分组上,有不同的表现形式,需要区别对待

案例1解析酷狗:

需求:目标网站:https://www.kugou.com/yy/html/rank.html
爬取要求:
1、获取到榜单页面的源码
2、用正则解析数据,获取到该页面所有歌曲的名字(包括歌手)和页
面链接
3、把数据保存到csv

# 目标网站:https://www.kugou.com/yy/html/rank.html
# 爬取要求:
# 1、获取到榜单页面的源码
# 2、用正则解析数据,获取到该页面所有歌曲的名字(包括歌手)和页
# 面链接
# 3、把数据保存到csv'''
1、分析页面:确定URL
2、发送请求,获取页面数据
3、解析数据
4、保存数据
'''
import requests
import re
import csv
'''
<a href="(.*?)".*?title="(.*?)".*?</a>
'''data_list=[]
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.82 Safari/537.36'
}
response = requests.get('https://www.kugou.com/yy/html/rank.html',headers=headers)
html = response.content.decode('utf-8')     # 1、获取到榜单页面的源码
# print(html)
# 匹配ul标签
ul_tag = re.search('<ul>(.*?)</ul>',html,re.S)
# print(ul_tag)
# print(ul_tag.group(1))
# 匹配a标签
a_tag_list = re.findall('<a\s{2,}href="(.*?)".*?title="(.*?)".*?</a>',ul_tag.group(1),re.S)
for a_tag in a_tag_list:data_list.append(a_tag)print(a_tag)# 保存数据
with open('kg.csv','w', encoding='utf-8',newline="") as f:wt = csv.writer(f)wt.writerow(('链接','歌曲'))wt.writerows(data_list)

利用面向对象改写

# 面向对象改写
import requests
import re
import csvclass Tq(object):def __init__(self):self.data_list=[]self.headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.82 Safari/537.36'}def get_data(self):response = requests.get('https://www.kugou.com/yy/html/rank.html', headers=self.headers)html = response.content.decode('utf-8')  # 1、获取到榜单页面的源码# print(html)# 匹配ul标签ul_tag = re.search('<ul>(.*?)</ul>', html, re.S)# print(ul_tag)# print(ul_tag.group(1))# 匹配a标签a_tag_list = re.findall('<a\s{2,}href="(.*?)".*?title="(.*?)".*?</a>', ul_tag.group(1), re.S)for a_tag in a_tag_list:self.data_list.append(a_tag)print(a_tag)def save_data(self):# 保存数据with open('kg2.csv', 'w', encoding='utf-8', newline="") as f:wt = csv.writer(f)wt.writerow(('链接', '歌曲'))wt.writerows(self.data_list)def run(self):self.get_data()self.save_data()if __name__ == '__main__':tq =Tq()tq.run()

案例2天气解析

需求:爬取近其他的天气(日期,天气,温度,风力)
确定url:http://www.weather.com.cn/weather/101250101.shtml
1. 获取整个网页源码
2. 获取ul数据
3. 在ul数据里面找li数据
4. 在li数据提取 日期,天气,温度,风力
保存到csv文件

# <span>23℃</span>
import requests
import csv
import reurl = 'http://www.weather.com.cn/weather/101250101.shtml'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.74 Safari/537.36'
}
# 发请求,获取响应
response = requests.get(url, headers=headers)
response.encoding = 'utf-8'
html = response.text
result = re.match(r'.*(<ul class="t clearfix">.*?</ul>).*', html, re.S)
ul = result.group(1)
lis = re.findall(r'<li.*?>.*?</li>', ul, re.S)  # 匹配的数据放在列表里面
pattern = re.compile(r'<li.*?>.*?<h1>(.*?)</h1>.*?<p.*?>(.*?)</p>.*?<span>(.*?)</span>.*?<i>(.*?)</i>.*?<i>(.*?)</i>.*?</li>', re.S)
lst = []
for i in lis:r = pattern.match(i)if r:tu = (r.group(1),r.group(2),r.group(3)+"/"+r.group(4),r.group(5))lst.append(tu)with open('weather2.csv', 'w', encoding='utf-8', newline='') as f:# 创建写入对象writer = csv.writer(f)writer.writerow(['日期', '天气', '温度', '风力'])writer.writerows(lst)

正则数据解析酷狗与天气案例相关推荐

  1. java 爬取网页版的酷狗音乐,下载到本地

    代码实现 import cn.hutool.http.HttpUtil; import com.alibaba.fastjson.JSONObject; import lombok.extern.sl ...

  2. python 爬虫(七)lxml模块 + lxml数据提取(字符串的xml/html文件--转换--element对象--转换--字符串)调用XPath方法筛选数据 + 案例(扇贝 酷狗 网易云音乐)

    爬虫小知识:爬取网站流程 确定网站哪个url是数据的来源. 简要分析一下网站结构,查看数据一般放在哪里. 查看是否有分页,解决分页的问题. 发送请求,查看response.text里面是否有我们想要的 ...

  3. Python疫起学习·万丈高楼平地起Day09(精简版|浓缩就是精华)爬虫知识附上案例爬取北京地区短租房信息、爬取酷狗TOP500的数据以及爬取网易云音乐热歌榜单

    爬虫知识 Requests库 部分运行结果如下: 有时爬虫需要加入请求头来伪装成浏览器,以便更好地抓取数据.在Chrome浏览器中按F12键打开Chrome开发者工具,刷新网页后找到User-Agen ...

  4. Python爬虫 爬取酷狗TOP500的数据

    根据书籍<从零开始学Python网络爬虫>P41,综合案例2-爬取酷狗TOP500的数据修改而来. 使用模块requests和模块BeautifukSoup进行爬取. 不得不说,酷狗拿来跑 ...

  5. 酷狗音乐的大数据实践

    2015-06-03 王劲 高可用架构 高可用架构 此文是根据酷狗音乐大数据架构师王劲在[QCON高可用架构群]中的分享内容整理而成,转发请注明出处. 王劲:目前就职酷狗音乐,大数据架构师,负责酷狗大 ...

  6. 数据解析学习笔记(正则解析、bs4解析、xpath解析)

    聚焦爬虫:爬取页面中指定的页面内容. - 编码流程: - 指定url - 发起请求 - 获取响应数据 - 数据解析 - 持久化存储 数据解析分类: 正则 bs4 xpath(***) 数据解析原理概述 ...

  7. 电商大数据——用数据驱动电商和商业案例解析

    电商大数据--用数据驱动电商和商业案例解析(国内第1本将大数据与电商完美结合的权威之作!) 雪鹰传奇 著   ISBN 978-7-121-22556-7 2014年3月出版 定价:98.00元 36 ...

  8. SpringBoot实现音乐网站解析(支持腾讯、网易、小米、酷狗)

    [实例简介] 音乐网站解析,实现了在线搜索音乐并播放音乐的功能,支持音乐源 腾讯.网易.小米.酷狗 是spring学习非常不错的案例 [实例截图] 文件:590m.com/f/25127180-487 ...

  9. Python爬虫案例:爬取酷狗音乐全排行榜歌曲

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 本次目标 爬取酷狗音乐全站排行榜歌曲 目标地址 https://www.ku ...

最新文章

  1. java web 开发应用 ----过滤器
  2. IT人为了自己父母和家庭,更得注意自己的身体和心理健康
  3. JAVA 游览时间最长,[蓝桥杯][算法训练]景点游览-题解(Java代码)
  4. 创建时间指定日期 java,Java避坑之如何创建指定时间Date对象
  5. 设计模式C++学习笔记之十三(Decorator装饰模式)
  6. Linux 高可用(HA)集群之keepalived
  7. 分针网——每日推荐:PHTML解析原理
  8. VSTO项目的MSB3482错误
  9. singleton pattern的推荐实现
  10. 独立游戏:四人团队如何100天做到百万用户
  11. python yield,到这个层次,才能叫深入哈
  12. vc6.0c语言如何延迟清屏时间,[转载]关于在vc6.0中输出运动的笑脸问题
  13. 捷联惯导算法(一)程序简单实现
  14. vb连接mysql的方法_VB几种连接数据库的方法
  15. 图解机器学习:人人都能懂的算法原理
  16. 计算机表格函数最大值操作,excel表格的各函数的基本操作
  17. chrome最简单的多开方法
  18. 加解密QQ旋风和迅雷链接地址
  19. 网站运营的十二条盈利模式
  20. python中@property的作用

热门文章

  1. 会计基础-会计科目+会计账户+复式记账+会计分录+会计凭证
  2. 常用的连续概率分布汇总
  3. 手机号码和姓名脱敏(加密*)
  4. bzoj1599: [Usaco2008 Oct]笨重的石子
  5. 这样的设计太妙了!K8S 神秘架构终于揭开面纱!
  6. 网店买书如何避免被骗?
  7. 《Android Studio开发实战》学习(三)- 展示图片
  8. 中文分词jieba python 学习
  9. Oralce 异常问题排查sql
  10. 电脑族的饮食葵花宝典