正则表达式

  • 一、正则表达式的简介
  • 二、正则表达式的使用
    • (一)re模块常用方法
      • `match()`
      • `search()`
      • `findall()`
      • `compile() `
      • ` split()`
      • `sub()`
      • `分组模式group()`
    • (二)pattern的模式
  • 二、正则爬虫应用
  • 爬虫要求不高,如果你写的表达式很复杂就说明该网站并不适合用正则来处理
  • 掌握基础

一、正则表达式的简介

概念

  • 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑
  • 特殊符号组合在一起的一个字符串,对你预知的一个字符串做一个验证,验证字符串的“机器、锁”
  • 逻辑就是对事物观察分析后概括判断后的结果

应用场景

  • 爬虫
  • 表达验证(例如 : 手机号、邮箱、身份证… )
    • 登入网站app的时候填入的个人信息进行验证

二、正则表达式的使用

在python当中有一个内置模块re专门用来实现正则表达式

(一)re模块常用方法

  • pattern:正则表达式的模板
  • string:表示要匹配、检验的字符串数据
  • flags:标致位,匹配的方式,位用于控制正则表达式的匹配方式 ,如: 是否区分大小写,多行匹配等等,多行匹配re.S

match()

在文本内查找,返回第一个匹配到的字符串

  • match(pattern, string, flags=0)

    • 有返回值,如果匹配成功了就返回一个match对象,否则返回一个None
      如果不是空性的值一定是返回true,空性的0或者None
    • 以开头开始匹配,如果开头不符合就会报错

search()

在文本内查找,返回第一个匹配到的字符串

  • search(pattern, string, flags=0)

    • 它的返回值类型和使用方法与match()是一样的,唯一的区别就是search()查找的位置不用固定在文本的开头

findall()

在文本内查找,返回所有匹配到的字符串

  • findall(pattern, string, flags=0)
  • 返回列表
    • 全文查找,它的返回值是一个匹配到的字符串的列表这个列表没有group()方法,没有start、end、span,更不是一个匹配对象,仅仅是个列表!如果一项都没有匹配到那么返回一个空列表
    • 作为re模块的三大搜索函数之一,findall()和match()、search()
    • 不同之处在于,match()、search()都是单值匹配,找到一个就忽略后面,直接返回不再查找了。而findall是全文查找

compile()

将字符串转化为Pattern

  • compile(pattern, flags=0)

    • ⽤于将字符串形式的正则表达式编译为Pattern模式对象,可以实现更加效率的匹配。
    • 返回对象,类似高阶函数的返回对象
    • 第二个参数flag是匹配模式 使用compile()完成一次转换后,再次使用该匹配模式的时候就不能进行转换了。
    • 经过compile()转换的正则表达式对象就可以当成模板使用

split()

分割字符串

  • split(pattern, string, maxsplit=0, flags=0)

    • 分割字符串
    • 返回列表
    • maxsplit:用于指定分割的次数,剪断的次数
    • re模块的split()方法和字符串的split()方法很相似,都是利用特定的字符去分割字符串。re模块的split()可以使用正则表达式,因此更灵活,更强大

sub()

指定替换次数

  • sub(pattern, repl, string, count=0, flags=0)

    • sub()方法类似字符串的replace()方法,用指定的内容替换匹配到的字符,可以指定替换次数

分组模式group()

  • match().group() 、search().group()
  • Python的re模块的一个分组功能。所谓的分组就是去已经匹配到的内容再筛选出需要的内容,相当于二次过滤。实现分组靠圆括号(),而获取分组的内容靠的是group()、groups(),其实前面我们已经展示过。re模块里的积个重要方法在分组上,有不同的表现形式,需要区别对待
  • 以前只匹配 我现在不仅匹配数据还要获取 就可以加分组
  • group():
    • group() group(0) 匹配整个字符
    • group(1) 匹配第1个分组 group(2) 匹配第2个分组
  • groups()
  • 匹配整个分组
  • 返回元组的格式
  • 不仅要匹配符合的字符,还要获取,就可以加分组

(二)pattern的模式

普通字符

  • 字母、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则表达式中的普通字符,在匹配的时候,只匹配与自身相同的一个字符。
  • 例如:表达式c,在匹配字符串abcde时,匹配结果是:成功;匹配到的内容是c;匹配到的位置开始于2,结束于3。(注:下标从0开始还是从1开始,因当前编程语言的不同而可能不同)

元字符

  • 正则表达式中使⽤了很多元字符,⽤来表示⼀些特殊的含义或功能

  • 一些无法书写或者具有特殊功能的字符,采用在前面加斜杠""进行转义的方法。例如下表所示
  • 尚未列出的还有问号?、星号*和括号等其他的符号。所有正则表达式中具有特殊含义的字符在匹配自身的时候,都要使用斜杠进行转义。这些转义字符的匹配用法与普通字符类似,也是匹配与之相同的一个字符

预定义匹配字符集

  • 正则表达式中的一些表示方法,可以同时匹配某个预定义字符集中的任意一个字符。比如,表达式\d可以匹配任意一个数字。虽然可以匹配其中任意字符,但是只能是一个,不是多个

重复匹配

  • 前面的表达式,无论是只能匹配一种字符的表达式,还是可以匹配多种字符其中任意一个的表达式,都只能匹配一次。但是有时候我们需要对某个字段进行重复匹配,例如手机号码13666666666,一般的新手可能会写\d\d\d\d\d\d\d\d\d\d\(注意,这不是一个恰当的表达式),不但写着费劲,看着也累,还不⼀定准确恰当。
    这种情况可以使用表达式再加上修饰匹配次数的特殊符号{},不但重复书写表达式就可以重复匹配。例如[abcd][abcd]可以写成[abcd]{2}
    ![在这里插入图片描述](https://img-blog.csdnimg.cn/20210427212703947.png?x-oss-

位置匹配和非贪婪匹配

  • 位置匹配
    有时候,我们对匹配出现的位置有要求,比如开头、结尾、单词之间等等

贪婪与非贪婪模式

  • 默认贪婪模式。在重复匹配时,正则表达式默认总是尽可能多的匹配,这被称为贪婪模式,总是尝试匹配尽可能多的字符

    • 贪婪匹配与match、search只匹配一个,match和search匹配一个是满足条件的最长一个,所以贪婪匹配,非贪婪匹配是指满足条件最短的。

校验数字的相关表达式:

特殊场景的表达式:

二、正则爬虫应用

爬虫案例

  • 需求:爬取7天的 天气情况 日期 天气状况温度 风力–> 保存到CSV

    • http://www.weather.com.cn/weather/101250101.shtml 目标url
      http://www.weather.com.cn/weather15d/101250101.shtml 8-15天
  • 解决方案: requests re
    • 第一步 分析页面
      第二个 思路总结
    • 1.先获取网页的源代码 整个html文件
      2.从网页的源代码当中去匹配ul标签的数据
      3.从ul标签里面去匹配li标签的数据
      4.去解析li标签里面的数据
      5.保存数据

保存一天的数据,用到compile相同的获取数据模式获取7天

import requests
import re
import csvheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.128 Safari/537.36'
}class WeatherSpider:# 获取网页源代码# 类对象 实例对象 实例方法 类方法def getSource(self):# 目标urlurl = 'http://www.weather.com.cn/weather/101250101.shtml'resp = requests.get(url,headers=headers)# print(resp.content.decode('utf-8'))return resp.content.decode('utf-8')# 解析数据 保存数据def parseSource(self):content = self.getSource()# 匹配ul 正则表达式比较灵活 .*?ul标签前面的数据# 匹配并获取的 (<ul class="t clearfix">.*?</ul>)  .*?ul标签后面的数据result = re.match(r'.*?(<ul class="t clearfix">.*?</ul>).*?',content,re.S)# print(result.group(1))# 匹配liul = result.group(1)lis = re.findall(r'<li.*?">.*?</li>',ul,re.S)lst_all = [] # 保存所有的天气数据pattern = re.compile(r'<li.*?">.*?<h1>(.*?)</h1>.*?<p.*?>(.*?)</p>.*?<i>(.*?)</i>.*?<i>(.*?)</i>.*?</li>',re.S)for li in lis:r = pattern.match(li)lst_one = [r.group(1),r.group(2),r.group(3),r.group(4)]lst_all.append(lst_one)return lst_all# 保存数据def saveData(self):content = self.parseSource()with open('weather7day.csv','w',encoding='utf-8',newline='') as file_obj:writer = csv.writer(file_obj)writer.writerow(['日期','天气','温度','风力'])writer.writerows(content)def main():WeatherSpider().saveData()if __name__ == '__main__':main()

获取7天各列的数据,在整合,主要用到findall

import re
import requests
import csvheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.128 Safari/537.36'
}class WeatherSpider:def getsouce(self):url = 'http://www.weather.com.cn/weather/101250101.shtml'req = requests.get(url, headers = headers).content.decode('utf-8')return reqdef parseSource(self):req = self.getsouce()content = re.search(r'<ul class="t clearfix">.*?</ul>', req, re.S).group()self.days = re.findall(r'<h1>(.*?)</h1>', content, re.S)self.weather = re.findall(r'<p title=\"(.*?)\" class', content, re.S)self.tem = re.findall(r'<p class="tem">.*?<span>(.*?)</span>/<i>(.*?)</i>', content, re.S)self.wind = re.findall(r'<p class="win">.*?<span title=\"(.*?)\".*?<i>(.*?)</i>', content, re.S)def saveData(self):self.parseSource()headers = ['日期', '天气', '最高温度', '最低温度', '风向', '风力']with open('weather7s.csv', 'w', encoding='utf-8', newline='') as file_obj:writer = csv.writer(file_obj)writer.writerow(headers)for i in range(7):list_one = [self.days[i], self.weather[i], self.tem[i][0], self.tem[i][1], self.wind[i][0], self.wind[i][1]]writer.writerow(list_one)def main():WeatherSpider().saveData()if __name__ == '__main__':main()

解析网页--正则表达式--python爬虫知识点4相关推荐

  1. python爬取网页代码-python爬虫爬取网页所有数据详细教程

    Python爬虫可通过查找一个或多个域的所有 URL 从 Web 收集数据.Python 有几个流行的网络爬虫库和框架.大家熟知的就是python爬取网页数据,对于没有编程技术的普通人来说,怎么才能快 ...

  2. 使用Python爬虫爬取简单网页(Python爬虫入门)

    今天我们来看一看使用Python爬取一些简单的网页. 所用工具:IDLE (Python 3.6 64-bit) 一. 爬取京东商品页面 我将要爬取的是这个东京商品页面信息,代码如下: import ...

  3. python如何爬虫网页数据-python爬虫——爬取网页数据和解析数据

    1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序. 只要浏览器能够做的事情,原则上,爬虫都能够做到. ...

  4. python解析网页数据_python爬虫——爬取网页数据和解析数据

    1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序. 只要浏览器能够做的事情,原则上,爬虫都能够做到. ...

  5. python爬虫知识点三--解析豆瓣top250数据

    一.利用cookie访问import requestsheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit ...

  6. python爬虫基础知识点_入门Python爬虫知识点梳理

    [小宅按]爬虫基本原理就是通过网络请求从远程服务器下载数据的过程,而这个网络请求背后的技术就是基于 HTTP 协议.作为入门爬虫来说,用户需要了解 HTTP协议的基本原理,虽然 HTTP 规范用一本书 ...

  7. python爬虫知识大全_(硬知识)Python爬虫知识点梳理,认真看好好学

    本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 以下文章来源于腾讯云 作者:企鹅号小编 ( 想要学习Python?Python学习 ...

  8. 从0到1:Python爬虫知识点梳理

    做数据分析和任何一门技术一样,都应该带着目标去学习,目标就像一座灯塔,指引你前进,很多人学着学着就学放弃了,很大部分原因是没有明确目标,所以,一定要明确学习目的,在你准备学爬虫前,先问问自己为什么要学 ...

  9. python爬虫知识点总结(七)PyQuery详解

    官方学习文档:http://pyquery.readthedocs.io/en/latest/api.html 一.什么是PyQuery? 答:强大有灵活的网页解析库,模仿jQuery实现.如果你觉得 ...

最新文章

  1. 边缘计算4.0正急速驶来,你做好准备了吗?
  2. 后端工程师入门前端页面重构(二):心法 I
  3. 如何在yaml中表示一个空字段
  4. Spring注解之@validated的使用
  5. 米线店结账程序 装饰着模式_实验报告2_装饰者模式
  6. OpenStack-Zun 使用
  7. dj电商-数据表的设计-商品表的设计
  8. 有向图的拓扑排序算法JAVA实现
  9. nndl学习笔记(二)反向传播公式推导与详解
  10. Active Record Query Interface 数据查询接口(界面) 看到第8节。
  11. Java发送HttpRequest
  12. linux管道学习资料
  13. 关于计算机网络以下说法哪个正确().,青书学堂: (多选题) 关于计算机网络,以下说法哪个正确?( )(本题4.0分)...
  14. matlab读取nc\hdf\grd等气象文件 自用
  15. k8s教程(pod篇)-容器获取pod信息(Downward API)
  16. HI,Bing,近期数字安全领域有什么热点事件?
  17. matlab学习增强学习,使用 MATLAB 和 Simulink 进行强化学习
  18. Debug的心路历程
  19. java词云生成Kumo
  20. 存储过程执行提示:ORA-01031: insufficient privileges

热门文章

  1. 菜鸟编程C语言例题100,C语言编程 菜鸟练习100题(11-20)
  2. Nginx反向代理的两种配置方式
  3. FZU 2214 Knapsack problem
  4. 使IT慢如蜗牛的十二个不良习惯
  5. NodeJS 5分钟 连接MySQL 增删改查
  6. [Codeforces 940E]Cashback
  7. 圆填充( CIRCLE PACKING)算法圆堆图圆形空间填充算法可视化
  8. 记——通过点击表头弹出筛选选项列表,点击进行数据筛选
  9. Spring MVC Aop注入遇到空指针bug
  10. Docker容器安装ssh