python编程快速上手(持续更新中…)

python爬虫从入门到精通


文章目录

  • python编程快速上手(持续更新中…)
  • python爬虫从入门到精通
    • 非结构化数据与结构化数据提取
      • 概述
      • 非结构化的数据处理
      • 结构化的数据处理
    • 正则表达式re模式
      • 什么是正则表达式
      • 正则表达式匹配规则
      • Python 的 re 模块
        • re 模块的一般使用步骤如下:
        • compile 函数
        • match 方法
        • search 方法
        • findall 方法
        • finditer 方法
        • split 方法
      • 案例:糗事百科段子爬虫(正则版)
        • 第一步:获取数据
        • 第二步:筛选数据
        • 第三步:保存数据

非结构化数据与结构化数据提取

概述

一般来讲对我们而言,需要抓取的是某个网站或者某个应用的内容,提取有用的价值。内容分为两部分,非结构化的数据 和 结构化的数据。

非结构化数据:先有数据,再有结构,
结构化数据:先有结构、再有数据
不同类型的数据,我们需要采用不同的方式来处理。

非结构化的数据处理

文本、电话号码、邮箱地址:正则表达式
HTML 文件:正则表达式/XPath/CSS选择器

结构化的数据处理

JSON 文件:JSON Path,转化成Python类型进行操作(json类)
XML 文件:转化成Python类型(xmltodict),XPath,CSS选择器,正则表达式

正则表达式re模式

实际上爬虫一共就四个主要步骤:

明确目标 (要知道你准备在哪个范围或者网站去搜索)
爬 (将所有的网站的内容全部爬下来)
取 (去掉对我们没用处的数据)
处理数据(按照我们想要的方式存储和使用)
我们在昨天的案例里实际上省略了第3步,也就是"取"的步骤。因为我们down下了的数据是全部的网页,这些数据很庞大并且很混乱,大部分的东西使我们不关心的,因此我们需要将之按我们的需要过滤和匹配出来。

那么对于文本的过滤或者规则的匹配,最强大的就是正则表达式,是Python爬虫世界里必不可少的神兵利器。

什么是正则表达式

正则表达式,又称规则表达式,通常被用来检索、替换那些符合某个模式(规则)的文本。

给定一个正则表达式和另一个字符串,我们可以达到如下的目的:

给定的字符串是否符合正则表达式的过滤逻辑(“匹配”);
通过正则表达式,从文本字符串中获取我们想要的特定部分(“过滤”)。

正则表达式匹配规则





Python 的 re 模块

在 Python 中,我们可以使用内置的 re 模块来使用正则表达式。

有一点需要特别注意的是,正则表达式使用 对特殊字符进行转义,所以如果我们要使用原始字符串,只需加一个 r 前缀,示例:

r’wangdaye\t.\tpython’

re 模块的一般使用步骤如下:

1.使用 compile() 函数将正则表达式的字符串形式编译为一个 Pattern 对象

2.通过 Pattern 对象提供的一系列方法对文本进行匹配查找,获得匹配结果,一个 Match 对象。

3.最后使用 Match 对象提供的属性和方法获得信息,根据需要进行其他的操作

compile 函数

import re
# 将正则表达式编译成 Pattern 对象
pattern = re.compile(r'\d+')

Pattern 对象的一些常用方法主要有:

match 方法:从起始位置开始查找,一次匹配
search 方法:从任何位置开始查找,一次匹配
findall 方法:全部匹配,返回列表
finditer 方法:全部匹配,返回迭代器
split 方法:分割字符串,返回列表
sub 方法:替换

match 方法

match 方法用于查找字符串的头部(也可以指定起始位置),它是一次匹配,只要找到了一个匹配的结果就返回,而不是查找所有匹配的结果。它的一般使用形式如下:

match(string[, pos[, endpos]])

其中,string 是待匹配的字符串,pos 和 endpos 是可选参数,指定字符串的起始和终点位置,默认值分别是 0 和 len (字符串长度)。因此,当你不指定 pos 和 endpos 时,match 方法默认匹配字符串的头部。

当匹配成功时,返回一个 Match 对象,如果没有匹配上,则返回 None。

>>> import re
>>> pattern = re.compile(r'\d+')  # 用于匹配至少一个数字
>>> m = pattern.match('one12twothree34four')  # 查找头部,没有匹配
>>> print mNone
>>> m = pattern.match('one12twothree34four', 2, 10) # 从'e'的位置开始匹配,没有匹配
>>> print mNone
>>> m = pattern.match('one12twothree34four', 3, 10) # 从'1'的位置开始匹配,正好匹配
>>> print m                                         # 返回一个 Match 对象
<_sre.SRE_Match object at 0x10a42aac0>
>>> m.group(0)   # 可省略 0'12'
>>> m.start(0)   # 可省略 03
>>> m.end(0)     # 可省略 05
>>> m.span(0)    # 可省略 0
(3, 5)

在上面,当匹配成功时返回一个 Match 对象,其中:

group([group1, …]) 方法用于获得一个或多个分组匹配的字符串,当要获得整个匹配的子串时,可直接使用 group() 或 group(0);

start([group]) 方法用于获取分组匹配的子串在整个字符串中的起始位置(子串第一个字符的索引),参数默认值为 0;

end([group]) 方法用于获取分组匹配的子串在整个字符串中的结束位置(子串最后一个字符的索引+1),参数默认值为 0;
span([group]) 方法返回 (start(group), end(group))。

再看看一个例子:

>>> import re
>>> pattern = re.compile(r'([a-z]+) ([a-z]+)', re.I)  # re.I 表示忽略大小写
>>> m = pattern.match('Hello World Wide Web')
>>> print m     # 匹配成功,返回一个 Match 对象
<_sre.SRE_Match object at 0x10bea83e8>
>>> m.group(0)  # 返回匹配成功的整个子串'Hello World'
>>> m.span(0)   # 返回匹配成功的整个子串的索引
(0, 11)
>>> m.group(1)  # 返回第一个分组匹配成功的子串'Hello'
>>> m.span(1)   # 返回第一个分组匹配成功的子串的索引
(0, 5)
>>> m.group(2)  # 返回第二个分组匹配成功的子串'World'
>>> m.span(2)   # 返回第二个分组匹配成功的子串
(6, 11)
>>> m.groups()  # 等价于 (m.group(1), m.group(2), ...)
('Hello', 'World')
>>> m.group(3)   # 不存在第三个分组
Traceback (most recent call last):File "<stdin>", line 1, in <module>
IndexError: no such group

search 方法

search 方法用于查找字符串的任何位置,它也是一次匹配,只要找到了一个匹配的结果就返回,而不是查找所有匹配的结果,它的一般使用形式如下:
search(string[, pos[, endpos]])
其中,string 是待匹配的字符串,pos 和 endpos 是可选参数,指定字符串的起始和终点位置,默认值分别是 0 和 len (字符串长度)。
当匹配成功时,返回一个 Match 对象,如果没有匹配上,则返回 None。
让我们看看例子:

>>> import re
>>> pattern = re.compile('\d+')
>>> m = pattern.search('one12twothree34four')  # 这里如果使用 match 方法则不匹配
>>> m<_sre.SRE_Match object at 0x10cc03ac0
>>>> m.group()'12'
>>> m = pattern.search('one12twothree34four', 10, 30)  # 指定字符串区间
>>> m<_sre.SRE_Match object at 0x10cc03b28
>>>> m.group()'34'
>>> m.span()
(13, 15)

再来看一个例子:

# -*- coding: utf-8 -*-
import re# 将正则表达式编译成 Pattern 对象
pattern = re.compile(r'\d+')# 使用 search() 查找匹配的子串,不存在匹配的子串时将返回 None# 这里使用 match() 无法成功匹配
m = pattern.search('hello 123456 789')if m:# 使用 Match 获得分组信息print 'matching string:',m.group()# 起始位置和结束位置print 'position:',m.span()

执行结果:

matching string: 123456
position: (6, 12)

findall 方法

上面的 match 和 search 方法都是一次匹配,只要找到了一个匹配的结果就返回。然而,在大多数时候,我们需要搜索整个字符串,获得所有匹配的结果。

findall 方法的使用形式如下:

findall(string[, pos[, endpos]])

其中,string 是待匹配的字符串,pos 和 endpos 是可选参数,指定字符串的起始和终点位置,默认值分别是 0 和 len (字符串长度)。
findall 以列表形式返回全部能匹配的子串,如果没有匹配,则返回一个空列表。

看看例子:

import re
pattern = re.compile(r'\d+')   # 查找数字result1 = pattern.findall('hello 123456 789')
result2 = pattern.findall('one1two2three3four4', 0, 10)
print result1print result2

执行结果:

['123456', '789']
['1', '2']

再先看一个例子:

import re
#re模块提供一个方法叫compile模块,提供我们输入一个匹配的规则#然后返回一个pattern实例,我们根据这个规则去匹配字符串
pattern = re.compile(r'\d+\.\d*')
#通过partten.findall()方法就能够全部匹配到我们得到的字符串
result = pattern.findall("123.141593, 'bigcat', 232312, 3.15")
#findall 以 列表形式 返回全部能匹配的子串给resultfor item in result:print item

运行结果:

123.1415933.15

finditer 方法

finditer 方法的行为跟 findall 的行为类似,也是搜索整个字符串,获得所有匹配的结果。但它返回一个顺序访问每一个匹配结果(Match 对象)的迭代器。
看看例子:

import re
pattern = re.compile(r'\d+')result_iter1 = pattern.finditer('hello 123456 789')
result_iter2 = pattern.finditer('one1two2three3four4', 0, 10)
print type(result_iter1)
print type(result_iter2)
print 'result1...'for m1 in result_iter1:   # m1 是 Match 对象
print 'matching string: {}, position: {}'.format(m1.group(), m1.span())
print 'result2...'for m2 in result_iter2:
print 'matching string: {}, position: {}'.format(m2.group(), m2.span())

执行结果:

<type 'callable-iterator'>
<type 'callable-iterator'>
result1...
matching string: 123456, position: (6, 12)
matching string: 789, position: (13, 16)
result2...
matching string: 1, position: (3, 4)
matching string: 2, position: (7, 8)

split 方法

split 方法按照能够匹配的子串将字符串分割后返回列表,它的使用形式如下:
split(string[, maxsplit])
其中,maxsplit 用于指定最大分割次数,不指定将全部分割。
看看例子:

import re
p = re.compile(r'[\s\,\;]+')
print p.split('a,b;; c   d')

执行结果:

['a', 'b', 'c', 'd']

sub 方法
sub 方法用于替换。它的使用形式如下:
sub(repl, string[, count])
其中,repl 可以是字符串也可以是一个函数:

如果 repl 是字符串,则会使用 repl 去替换字符串每一个匹配的子串,并返回替换后的字符串,另外,repl 还可以使用 id 的形式来引用分组,但不能使用编号 0;

如果 repl 是函数,这个方法应当只接受一个参数(Match 对象),并返回一个字符串用于替换(返回的字符串中不能再引用分组)。

count 用于指定最多替换次数,不指定时全部替换。

看看例子:

import re
p = re.compile(r'(\w+) (\w+)') # \w = [A-Za-z0-9_]
s = 'hello 123, hello 456'
print p.sub(r'hello world', s)  # 使用 'hello world' 替换 'hello 123' 和 'hello 456'print p.sub(r'\2 \1', s)        # 引用分组
def func(m):return 'hi' + ' ' + m.group(2)
print p.sub(func, s)print p.sub(func, s, 1)         # 最多替换一次

执行结果:

hello world, hello world
123 hello, 456 hello
hi 123, hi 456
hi 123, hello 456

案例:糗事百科段子爬虫(正则版)

现在拥有了正则表达式这把神兵利器,我们就可以进行对爬取到的全部网页源代码进行筛选了。

下面我们一起尝试一下爬取糗事百科网站: https://www.qiushibaike.com/text/page/2/

打开之后,不难看到里面一个一个灰常有内涵的段子,当你进行翻页的时候,注意url地址的变化:

第一页url: https://www.qiushibaike.com/hot/page/1/

第二页url: https://www.qiushibaike.com/hot/page/2/

第三页url: https://www.qiushibaike.com/hot/page/3/

第四页url: https://www.qiushibaike.com/hot/page/4/

这样我们的url规律找到了,要想爬取所有的段子,只需要修改一个参数即可。 下面我们就开始一步一步将所有的段子爬取下来吧。

第一步:获取数据

1. 按照我们之前的用法,我们需要写一个加载页面的方法。
这里我们统一定义一个类,将url请求作为一个成员方法处理。
我们创建一个文件,叫duanzi_spider.py
然后定义一个Spider类,并且添加一个加载页面的成员方法:

import urllib.requestclass Spider:"""糗事百科爬虫类"""def loadPage(self, page):"""@brief 定义一个url请求网页的方法@param page 需要请求的第几页@returns 返回的页面html"""url = "https://www.qiushibaike.com/text/page/" + str(page) + "/"#User-Agent头user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0'headers = {'User-Agent': user_agent}req = urllib.request.Request(url, headers = headers)response = urllib.request.urlopen(req)html = response.read()print (html)#return html

以上的loadPage的实现体想必大家应该很熟悉了,需要注意定义python类的成员方法需要额外添加一个参数self.

那么loadPage(self, page) 中的page是我们指定去请求第几页。

最后通过 print html打印到屏幕上。

然后我们写一个main函数见到测试一个loadPage方法

2. 写main函数测试一个loadPage方法

if __name__ == '__main__':"""======================糗事百科小爬虫======================"""# 定义一个Spider对象mySpider = Spider()mySpider.loadPage(1)

**注意 :**对于每个网站对中文的编码各自不同,所以html.decode(‘utf-8)的写法并不是通用写法,根据网站的编码而异

第二步:筛选数据

接下来我们已经得到了整个页面的数据。 但是,很多内容我们并不关心,所以下一步我们需要进行筛选。 如何筛选,就用到了上一节讲述的正则表达式。

首先

import re

然后, 在我们得到的gbk_html中进行筛选匹配。

我们需要一个匹配规则:
我们可以打开内涵段子的网页,鼠标点击右键 “ 查看源代码 ” 你会惊奇的发现,我们需要的每个段子的内容都是在一个

标签中,而且每个div都有一个属性class = "content"

所以,我们只需要匹配到网页中所有

的数据就可以了

根据正则表达式,我们可以推算出一个公式是:

<div.?class="author.?>.?<a.?.?<a.?>(.?).?<div.?class=“content”.?>(.?)(.?)<div class="stats.?class=“number”>(.?)

这个表达式实际上就是匹配到所有div中class="f18 mb20 里面的内容(具体可以看前面正则介绍)

然后将这个正则应用到代码中,我们优化loadPage代码:

"""糗事百科爬虫类
"""def loadPage(self, page):"""@brief 定义一个url请求网页的方法@param page 需要请求的第几页@returns 返回的页面html"""url = 'http://www.qiushibaike.com/hot/page/' + str(page)#User-Agent头user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0'headers = {'User-Agent': user_agent}req = urllib.request.Request(url, headers = headers)response = urllib.request.urlopen(req)html = response.read().decode("utf-8")# 找到所有的段子内容<div class = "content"></div># re.S 如果没有re.S 则是只匹配一行有没有符合规则的字符串,如果没有则下一行重新匹配# 如果加上re.S 则是将所有的字符串将一个整体进行匹配pattern = re.compile(r'<div.*?class="author.*?>.*?<a.*?</a>.*?<a.*?>(.*?)</a>.*?<div.*?class' +'="content".*?>(.*?)</div>(.*?)<div class="stats.*?class="number">(.*?)</i>', re.S)item_list = re.findall(pattern, html)# print (item_list)pageStories = []for item in item_list:replaceBR = re.compile('<br/>')text = re.sub(replaceBR, "\n", item[1])pageStories.append([item[0].strip(), text.strip(), item[2].strip(), item[3].strip()])# print(pageStories)return pageStories

第三步:保存数据

我们可以将所有的段子存放在文件中。比如,我们可以将得到的每个item不是打印出来,而是存放在一个叫 duanzi.txt 的文件中也可以。

def printOnePage(self, item_list, page):'''@brief 处理得到的段子列表@param item_list 得到的段子列表@param page 处理第几页'''#print("******* 第 %d 页 爬取完毕...*******" % page)for item in item_list:# print "================"# item = item.replace("<p>", "").replace("</p>", "").replace("<br />", "")# print itemself.writeToFile(item)def writeToFile(self, text):'''@brief 将数据追加写进文件中@param text 文件内容'''myFile = open("./duanzi.txt", 'a')  # 追加形式打开文件myFile.write(text)myFile.write("-----------------------------------")myFile.close()

第四步:显示数据
接下来我们就通过参数的传递对page进行叠加来遍历 内涵段子吧的全部段子内容。

只需要在外层加一些逻辑处理即可。

def doWork(self):'''让爬虫开始工作'''while self.enable:try:item_list = self.loadPage(self.page)except urllib.error.URLError as e:print e.reasoncontinue#对得到的段子item_list处理self.printOnePage(item_list, self.page)self.page += 1 #此页处理完毕,处理下一页print "按回车继续..."print "输入 quit 退出"command = input()if (command == "quit"):self.enable = Falsebreak

最后,我们执行我们的代码,完成后查看当前路径下的duanzi.txt文件,里面已经有了我们要的内涵段子。

if __name__ == '__main__':"""======================糗事百科小爬虫======================"""# 定义一个Spider对象mySpider = Spider()   mySpider.doWork()

正则表达式re模式(python爬虫糗事百科热点段子)相关推荐

  1. python爬虫糗事百科

    #coding:utf-8 import urllib2 import re # 工具类 class Tools(object):remove_n = re.compile(r'\n')replace ...

  2. python 爬取糗事百科的段子

    本篇目标 1.抓取糗事百科热门段子 2.过滤带有图片的段子 3.实现每按一次回车显示一个段子的发布时间,发布人,段子内容,点赞数. 糗事百科是不需要登录的,所以也没必要用到Cookie,另外糗事百科有 ...

  3. python多线程爬取段子_Python爬虫实例-多线程爬虫糗事百科搞笑内涵段子

    学习爬虫,其乐无穷! 今天给大家带来一个爬虫案例,爬取糗事百科搞笑内涵段子. 爬取糗事百科段⼦,假设⻚⾯的 URL 是:http://www.qiushibaike.com/8hr/page/1 一. ...

  4. 爬虫第四战爬取糗事百科搞笑段子

    又开始了新的篇章,本熊继续一个Python小白的修行之路,这次要爬取糗事百科主页的段子,恩 ..看起来不错的样子,只是段子不能吃 ,不然,啧啧... 相信很多人有去糗百看段子减压的习惯,如果能把这些段 ...

  5. python多线程糗事百科案例

    案例:多线程爬虫 目标:爬取糗事百科段子,待爬取页面URL:http://www.qiushibaike.com/8hr/page/1 要求: 使用requests获取页面信息,用XPATH/re 做 ...

  6. python笔记之利用BeautifulSoup爬取糗事百科首页段子

    1.到糗事百科查看网页源代码找到规律,发现内容都在class_="content"的div标签内 2.直接上代码: from bs4 import BeautifulSoup #调 ...

  7. python爬虫——利用BeautifulSoup4爬取糗事百科的段子

    1 import requests 2 from bs4 import BeautifulSoup as bs 3 4 #获取单个页面的源代码网页 5 def gethtml(pagenum): 6 ...

  8. python笔记之利用scrapy框架爬取糗事百科首页段子

    环境准备: scrapy框架(可以安装anaconda一个python的发行版本,有很多库) cmd命令窗口 教程: 创建爬虫项目 scrapy startproject qq #创建了一个爬虫项目q ...

  9. (python)查看糗事百科文字 点赞 作者 等级 评论

    import requests import re headers = { 'User-Agent':'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6. ...

最新文章

  1. CentOS 安装NTFS-3G,让系统支持NTFS分区的方法
  2. 太牛逼!一款软件几乎可以操作所有的数据库!
  3. 【android-cocos2d-X2.2 环境配置】在Mac下搭建Cocos2d-X-android开发环境!
  4. 马宁的Windows Phone 7开发教程(3)——XNA下使用MessageBox和软键盘
  5. C/C++常用宏定义,注意事项,宏中#和##的用法
  6. 动态规划算法-03背包问题
  7. input做成label效果
  8. 怎样用代码方式退出IOS程序
  9. Atitit 调试工具模块 保存序列化map参数 mybatis调试sql selectid 查看mybatis真实sql 1.1. 对象序列化功能 序列化为bytearr 文件等 1 1.2.
  10. 解除天翼young和沃派客户端数量限制的方法
  11. 单元二:全桥MOS/IGBT电路(后端全桥电路的搭建)
  12. QQ截屏快速获取像素颜色
  13. 2019第十届蓝桥杯大赛软件类省赛C++ C组真题题解
  14. 【网络知识】3. 千兆网传输速度125MB/s、百兆网12.5MB/s,码率、比特率、带宽、文件大小M就是MB
  15. Linux下安装Atom编辑器
  16. 穿越NAT的SDWAN技术实现(下)
  17. 小傻蛋的妹妹跟随小甲鱼学习Python的第三节003
  18. 软件打包为exe NSIS单文件封包工具V2.3
  19. win7修改word背景色保护眼睛
  20. 【MATLAB】Matlab输入输出格式及矩阵运算

热门文章

  1. 什么是“月结30天”?(轉)
  2. 推荐几款好用的VsCode色彩主题
  3. 一篇文章看明白 Android PackageManagerService 工作流程
  4. FZU - 2191 完美的数字
  5. 全球首例!韩国或将禁止苹果和谷歌向开发者收佣
  6. 指向数组的指针的理解
  7. 最全电商分类信息(07)
  8. 开始使用TreeATE
  9. 看微软IE7.0更新的一家之言(转)
  10. 15数字华容道解法 图解_数字华容道解法图解 数字华容道玩法介绍