此系列笔记来源于
中国大学MOOC-北京理工大学-嵩天老师的Python系列课程

转载自:http://www.jianshu.com/p/98d0139dacac


7. Re(正则表达式)库入门

regular expression = regex = RE
是一种通用的字符串表达框架,用来简洁表达一组字符串的表达式,也可用来判断某字符串的特征归属

  • 正则表达式的语法

    常用操作符1



常用操作符2

实例

经典实例

Re库的基本使用

  • 正则表达式的表示类型为raw string类型(原生字符串类型),表示为r’text’

Re库主要功能函数

功能函数

re.search(pattern,string,flags=0)

  • re.match(pattern,string,flags=0)
    因为match为从开始位置开始匹配,使用时要加if进行判别返回结果是否为空,否则会报错

  • re.findall(pattern,string,flags=0)

  • re.split(pattern,string,maxsplit=0,flags=0)
    maxsplit为最大分割数,剩余部分作为最后一个元素输出

  • re.finditer(pattern,string,flags=0)

  • re.sub(pattern,repl,string,count=0,flags=0)
    repl是用来替换的字符串,count为替换次数

  • Re库的另一种等价用法
    Re库的函数式用法为一次性操作,还有一种为面向对象用法,可在编译后多次操作
    regex = re.compile(pattern,flags=0)
    通过compile生成的regex对象才能被叫做正则表达式

  • Re库的match对象

    Match对象的属性



  • Match对象的方法

    实例

    • Re库的贪婪匹配和最小匹配
      Re库默认采取贪婪匹配,即输出匹配最长的子串



      最小匹配操作符

    8.实例二:淘宝商品比价定向爬虫(requests-re)

    步骤1:提交商品搜索请求,循环获取页面
    步骤2:对于每个页面,提取商品名称和价格信息
    步骤3:将信息输出显示

    import requests
    import redef getHTMLText(url):try:r = requests.get(url, timeout=30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""def parsePage(ilt, html):try:plt = re.findall(r'\"view_price\"\:\"[\d\.]*\"',html)tlt = re.findall(r'\"raw_title\"\:\".*?\"',html)for i in range(len(plt)):price = eval(plt[i].split(':')[1])title = eval(tlt[i].split(':')[1])ilt.append([price , title])except:print("")def printGoodsList(ilt):tplt = "{:4}\t{:8}\t{:16}"print(tplt.format("序号", "价格", "商品名称"))count = 0for g in ilt:count = count + 1print(tplt.format(count, g[0], g[1]))def main():goods = '书包'depth = 3start_url = 'https://s.taobao.com/search?q=' + goodsinfoList = []for i in range(depth):try:url = start_url + '&s=' + str(44*i)html = getHTMLText(url)parsePage(infoList, html)except:continueprintGoodsList(infoList)main()

    9.实例三:股票数据定向爬虫(requests-bs

    4-re)
    步骤1:从东方财富网获取股票列表
    步骤2:根据股票列表逐个到百度股票获取个股信息
    步骤3:将结果存储到文件

    #CrawBaiduStocksB.py
    import requests
    from bs4 import BeautifulSoup
    import traceback
    import redef getHTMLText(url, code="utf-8"):try:r = requests.get(url)r.raise_for_status()r.encoding = codereturn r.textexcept:return ""def getStockList(lst, stockURL):html = getHTMLText(stockURL, "GB2312")soup = BeautifulSoup(html, 'html.parser') a = soup.find_all('a')for i in a:try:href = i.attrs['href']lst.append(re.findall(r"[s][hz]\d{6}", href)[0])except:continuedef getStockInfo(lst, stockURL, fpath):count = 0for stock in lst:url = stockURL + stock + ".html"html = getHTMLText(url)try:if html=="":continueinfoDict = {}soup = BeautifulSoup(html, 'html.parser')stockInfo = soup.find('div',attrs={'class':'stock-bets'})name = stockInfo.find_all(attrs={'class':'bets-name'})[0]infoDict.update({'股票名称': name.text.split()[0]})keyList = stockInfo.find_all('dt')valueList = stockInfo.find_all('dd')for i in range(len(keyList)):key = keyList[i].textval = valueList[i].textinfoDict[key] = valwith open(fpath, 'a', encoding='utf-8') as f:f.write( str(infoDict) + '\n' )count = count + 1print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")except:count = count + 1print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")continuedef main():stock_list_url = 'http://quote.eastmoney.com/stocklist.html'stock_info_url = 'https://gupiao.baidu.com/stock/'output_file = 'D:/BaiduStockInfo.txt'slist=[]getStockList(slist, stock_list_url)getStockInfo(slist, stock_info_url, output_file)main()

Python网络爬虫与信息提取(三):网络爬虫之实战相关推荐

  1. 计算机国三网络技术,计算机国三网络技术.doc

    计算机国三网络技术计算机国三网络技术 第一章 计算机基础 1.1 计算机系统的组成 <1>年份事件: 1946 ENIAC 第一台计算机诞生 1969 ARPNET产生 互联网的诞生 19 ...

  2. 【网络互联技术】(三) 网络互联基础。

    转载请标明出处: http://blog.csdn.net/sk719887916/article/details/46773109 作者:skay  一 互联技术 虽然作为程序员来讲不必过多的去了解 ...

  3. Python网络爬虫与信息提取(9)—— scrapy实战之爬取黑马程序员网页讲师信息

    前言 之前是使用request库爬取网页,但是大型的网络爬虫使用框架爬取会事半功倍,今天实战爬取这个网页讲师的信息:https://www.itcast.cn/channel/teacher.shtm ...

  4. 七月算法课程《python爬虫》第三课: 爬虫基础知识与简易爬虫实现

    这节课涉及到很多知识,CSS.XPath.Json.Dom和Sax.正则表达式.Selenium等.大家可以在W3School 和RUNOOB.COM 上了解下这方面的相关知识 CSS的几个网页使用示 ...

  5. python爬虫学习笔记(三)——淘宝商品比价实战(爬取成功)

    2020年最新淘宝商品比价定向爬取 功能描述 目标:获取淘宝搜索页面的信息,提取其中的商品名称和价格. 理解:淘宝的搜索接口 翻页的处理 技术路线:requests­          re 程序的结 ...

  6. Python爬虫初探(九)——爬虫之Beautifulsoup4实战(爬取豆瓣信息)

    前面两章咱们介绍了Beautifuisoup4模块的简单使用,今天就用它来爬取豆瓣信息.话不多说,咱们开始吧. 一.拿到url地址 二.获取豆瓣数据 三.保存文件 需求: 爬取标题.评分.详情页的地址 ...

  7. 以下用于数据存储领域的python第三方库是-南开《网络爬虫与信息提取》19秋期末考核题目【标准答案】...

    <网络爬虫与信息提取>19秋期末考核-0001 试卷总分:100 得分:70 一.单选题 (共 20 道试题,共 40 分) 1.如果很多爬虫同时对一个网站全速爬取,那么其实就是对网站进行 ...

  8. Python网络爬虫与信息提取(二):网络爬虫之提取

    此系列笔记来源于 中国大学MOOC-北京理工大学-嵩天老师的Python系列课程 转载自:http://www.jianshu.com/p/7b950b8a5966 4. Beautiful Soup ...

  9. Python网络爬虫与信息提取

    1.Requests库入门 Requests安装 用管理员身份打开命令提示符: pip install requests 测试:打开IDLE: >>> import requests ...

最新文章

  1. .Net Web项目安装包制作(三)补充说明
  2. 安装Ubuntu18.04遇到的问题
  3. 有关电子的十个有趣事实
  4. Oracle:管理 date类型 interval 动态变化的分区:查询、删除
  5. 应用在vue项目里的axios使用方法
  6. android的窗口机制分析------ViewRoot类
  7. [转]模拟电路设计经典教材推荐
  8. PS教程第二十五课:自由选区
  9. 查看器_「图」Firefox 70将启用全新证书查看器 允许关闭画中画图标
  10. 小数据作为解题关键:
  11. dlib疲劳检测_基于OpenCV的实时睡意检测系统
  12. unity3d Realistic eye shading 真实的眼睛渲染
  13. 数据库文件放在服务器哪里,服务器上数据库文件存放位置
  14. 【PAT甲级】1087 All Roads Lead to Rome 条条大路通罗马
  15. iOS storyBoard 和 纯代码 实现 九宫格 切图
  16. Authing 背后的计算哲学
  17. 神经网络与深度学习---train_loss和val_loss(test_lost)分析
  18. 线程 ManualResetEvent 类
  19. sql查询:查询所有学生的个人信息和加入的多个班级(group_concat)
  20. logo免费在线设计,做自己品牌的设计师

热门文章

  1. 数组作为形参时的一个陷阱
  2. mysql系列之2.mysql多实例
  3. Nmap扫描参数解析(转)
  4. sqlserver 日常检查脚本
  5. DbgView软件 查看VC++ MFC 程序的打印信息
  6. 解决AD 不能打开DDB文件的解决方案
  7. HTML设置虚拟按键,畅玩安卓模拟器的设置虚拟按键的方法
  8. 前端在linux中常用的命令,前端应该会的23个linux常用命令
  9. 个推通知栏修改_浙大一院五一劳动节放假通知!手机办住院手续!还有这些攻略不能错过!...
  10. 百度超级链XChain(5)XuperBridge 智能合约接口