一.urllib库

urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求。其常被用到的子模块在Python3中的为urllib.request和urllib.parse,在Python2中是urllib和urllib2。

二.由易到难的爬虫程序:

1.爬取百度首页面所有数据值

1 #!/usr/bin/env python

2 #-*- coding:utf-8 -*-

3 #导包

4 importurllib.request5 importurllib.parse6 if __name__ == "__main__":7 #指定爬取的网页url

8 url = 'http://www.baidu.com/'

9 #通过urlopen函数向指定的url发起请求,返回响应对象

10 reponse = urllib.request.urlopen(url=url)11 #通过调用响应对象中的read函数,返回响应回客户端的数据值(爬取到的数据)

12 data = reponse.read()#返回的数据为byte类型,并非字符串

13 print(data)#打印显示爬取到的数据值。

#补充说明

urlopen函数原型:urllib.request.urlopen(url, data=None, timeout=, *, cafile=None, capath=None, cadefault=False, context=None)

在上述案例中我们只使用了该函数中的第一个参数url。在日常开发中,我们能用的只有url和data这两个参数。

url参数:指定向哪个url发起请求

data参数:可以将post请求中携带的参数封装成字典的形式传递给该参数(暂时不需要理解,后期会讲)

urlopen函数返回的响应对象,相关函数调用介绍:

response.headers():获取响应头信息

response.getcode():获取响应状态码

response.geturl():获取请求的url

response.read():获取响应中的数据值(字节类型)

2.将爬取到百度新闻首页的数据值写入文件进行存储

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parseif __name__ == "__main__":

url= 'http://news.baidu.com/'reponse= urllib.request.urlopen(url=url)#decode()作用是将响应中字节(byte)类型的数据值转成字符串类型

data =reponse.read().decode()#使用IO操作将data表示的数据值以'w'权限的方式写入到news.html文件中

with open('./news.html','w') as fp:

fp.write(data)print('写入文件完毕')

3.爬取网络上某张图片数据,且存储到本地

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parse#如下两行代码表示忽略https证书,因为下面请求的url为https协议的请求,如果请求不是https则该两行代码可不用。

importssl

ssl._create_default_https_context=ssl._create_unverified_contextif __name__ == "__main__":#url是https协议的

url = 'https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1536918978042&di=172c5a4583ca1d17a1a49dba2914cfb9&imgtype=0&src=http%3A%2F%2Fimgsrc.baidu.com%2Fimgad%2Fpic%2Fitem%2F0dd7912397dda144f04b5d9cb9b7d0a20cf48659.jpg'reponse= urllib.request.urlopen(url=url)

data= reponse.read()#因为爬取的是图片数据值(二进制数据),则无需使用decode进行类型转换。

with open('./money.jpg','wb') as fp:

fp.write(data)print('写入文件完毕')

4.url的特性:url必须为ASCII编码的数据值。所以我们在爬虫代码中编写url时,如果url中存在非ASCII编码的数据值,则必须对其进行ASCII编码后,该url方可被使用。

案例:爬取使用百度根据指定词条搜索到的页面数据(例如爬取词条为‘周杰伦’的页面数据)

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parseif __name__ == "__main__":#原始url中存在非ASCII编码的值,则该url无法被使用。

#url = 'http://www.baidu.com/s?ie=utf-8&kw=周杰伦'

#处理url中存在的非ASCII数据值

url = 'http://www.baidu.com/s?'

#将带有非ASCII的数据封装到字典中,url中非ASCII的数据往往都是'?'后面键值形式的请求参数

param ={'ie':'utf-8','wd':'周杰伦'}#使用parse子模块中的urlencode函数将封装好的字典中存在的非ASCII的数值进行ASCII编码

param =urllib.parse.urlencode(param)#将编码后的数据和url进行整合拼接成一个完整可用的url

url = url +paramprint(url)

response= urllib.request.urlopen(url=url)

data=response.read()

with open('./周杰伦.html','wb') as fp:

fp.write(data)print('写入文件完毕')

5.通过自定义请求对象,用于伪装爬虫程序请求的身份。

之前在讲解http常用请求头信息时,我们讲解过User-Agent参数,简称为UA,该参数的作用是用于表明本次请求载体的身份标识。如果我们通过浏览器发起的请求,则该请求的载体为当前浏览器,则UA参数的值表明的是当前浏览器的身份标识表示的一串数据。如果我们使用爬虫程序发起的一个请求,则该请求的载体为爬虫程序,那么该请求的UA为爬虫程序的身份标识表示的一串数据。有些网站会通过辨别请求的UA来判别该请求的载体是否为爬虫程序,如果为爬虫程序,则不会给该请求返回响应,那么我们的爬虫程序则也无法通过请求爬取到该网站中的数据值,这也是反爬虫的一种初级技术手段。那么为了防止该问题的出现,则我们可以给爬虫程序的UA进行伪装,伪装成某款浏览器的身份标识。

上述案例中,我们是通过request模块中的urlopen发起的请求,该请求对象为urllib中内置的默认请求对象,我们无法对其进行UA进行更改操作。urllib还为我们提供了一种自定义请求对象的方式,我们可以通过自定义请求对象的方式,给该请求对象中的UA进行伪装(更改)操作。

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parseimportssl

ssl._create_default_https_context=ssl._create_unverified_contextif __name__ == "__main__":#原始url中存在非ASCII编码的值,则该url无法被使用。

#url = 'http://www.baidu.com/s?ie=utf-8&kw=周杰伦'

#处理url中存在的非ASCII数据值

url = 'http://www.baidu.com/s?'

#将带有非ASCII的数据封装到字典中,url中非ASCII的数据往往都是'?'后面键值形式的请求参数

param ={'ie':'utf-8','wd':'周杰伦'}#使用parse子模块中的urlencode函数将封装好的字典中存在的非ASCII的数值进行ASCII编码

param =urllib.parse.urlencode(param)#将编码后的数据和url进行整合拼接成一个完整可用的url

url = url +param#将浏览器的UA数据获取,封装到一个字典中。该UA值可以通过抓包工具或者浏览器自带的开发者工具中获取某请求,从中获取UA的值

headers={'User-Agent' : 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'}#自定义一个请求对象

#参数:url为请求的url。headers为UA的值。data为post请求的请求参数(后面讲)

request = urllib.request.Request(url=url,headers=headers)#发送我们自定义的请求(该请求的UA已经进行了伪装)

response =urllib.request.urlopen(request)

data=response.read()

with open('./周杰伦.html','wb') as fp:

fp.write(data)print('写入数据完毕')

爬虫python爬取页面请求_Python网络爬虫第三弹《爬取get请求的页面数据》相关推荐

  1. python网络爬虫与信息提取_北京理工大学_Python网络爬虫与信息提取(一)

    学习 北京理工大学 嵩天 课程笔记 课程体系结构: 1.Requests框架:自动爬取HTML页面与自动网络请求提交 2.robots.txt:网络爬虫排除标准 3.BeautifulSoup框架:解 ...

  2. 玩转python网络爬虫黄永祥pdf下载_Python网络爬虫从入门到实践pdf

    Python网络爬虫从入门到实践 内容简介 本书将介绍如何使用Python编写网络爬虫程序获取互联网上的大数据.本书包括三部分内容:基础部分.进阶部分和项目实践.基础部分(第1~6章)主要介绍爬虫的三 ...

  3. python网络爬虫的方法有几种_Python网络爬虫过程中5种网页去重方法简要介绍

    一般的,我们想抓取一个网站所有的URL,首先通过起始URL,之后通过网络爬虫提取出该网页中所有的URL链接,之后再对提取出来的每个URL进行爬取,提取出各个网页中的新一轮URL,以此类推.整体的感觉就 ...

  4. python如何爬有道翻译_Python网络爬虫(八) - 利用有道词典实现一个简单翻译程序...

    目录: 1.爬虫前的分析 因为要实现有道翻译的翻译功能,就需要找到它的接口,打开审查元素,来到网络监听窗口(Network),查看API接口. 我们可以找到有道翻译的API接口,同时是以Post方式提 ...

  5. python中spider的用法_python网络爬虫 CrawlSpider使用详解

    CrawlSpider 作用:用于进行全站数据爬取 CrawlSpider就是Spider的一个子类 如何新建一个基于CrawlSpider的爬虫文件 scrapy genspider -t craw ...

  6. python爬虫开发 从入门到实战_python网络爬虫从入门到实战开发

    1.简单的抓取网页 from urllib import request req=request.Request("http://www.baidu.com") response= ...

  7. python医疗发票 信息抽取_PYTHON网络爬虫与信息提取[信息的组织与提取](单元五)...

    1 三种信息类型的简介 xml : extensible markup language 与html非常相似 现有html后有xml xml是html发展来的 扩展 通用 json  类型 javas ...

  8. [Python从零到壹] 九.网络爬虫之Selenium基础技术万字详解(定位元素、常用方法、键盘鼠标操作)

    欢迎大家来到"Python从零到壹",在这里我将分享约200篇Python系列文章,带大家一起去学习和玩耍,看看Python这个有趣的世界.所有文章都将结合案例.代码和作者的经验讲 ...

  9. [Python从零到壹] 四.网络爬虫之入门基础及正则表达式抓取博客案例

    欢迎大家来到"Python从零到壹",在这里我将分享约200篇Python系列文章,带大家一起去学习和玩耍,看看Python这个有趣的世界.所有文章都将结合案例.代码和作者的经验讲 ...

最新文章

  1. Python进阶11-标准库介绍02
  2. 棋盘问题 简单搜索DFS
  3. php html 目录列表,PHP获取文件目录列表
  4. mvn 错误: @param 未找到
  5. C++对象数组的实例学习
  6. 登陆模块邮箱用例设计_邮箱注册模块测试用例.doc
  7. android 壁纸改变回调,android_launcher的源码详细分析和壁纸修改
  8. 消息队列以及非常牛的kafka
  9. 卷积神经网络(CNN)原理详解
  10. 配置ext邮箱服务器,Extmail实现邮件服务器
  11. nnet3-compute计算chain前向传播概率矩阵(声学模型输出)
  12. 这次,python将带你自动爬取B站CXK的NBA形象大使的全部鬼畜视频
  13. python 使用 io.BytesIO 内存文件加速图片生成服务
  14. 兼容性问题:安卓正常,ios报错invalid group specifier name
  15. 恬淡,禅意里开出的花
  16. 720度全景带你vr云游景区,vr云游在景区的应用优势
  17. 【visual studio】错误LNK 1168,无法打开 XXX.exe进行写入解决方案
  18. “我不会,但我可以学!”面试千万别说这句蠢话,高情商都这么说
  19. 易地推拓客分享培训机构如何玩转私域流量
  20. 如何破解安腾校园网客户端(2)

热门文章

  1. 基于python的数据分析方法五种_利用Python进行数据分析 第5章 pandas入门(1)
  2. 微信有电脑客户端吗_如何在一个电脑上登录多个微信号
  3. 连接两个点云中的字段或数据形成新点云以及Opennni Grabber初识
  4. Ubuntu 14.04 64bit上升级Intel官方集显更新驱动程序
  5. 2019年9月2日开学!寒假时间也定了……
  6. Https的底层原理
  7. Alpha冲刺 - (5/10)
  8. iOS-禁止scrollview垂直方向滚动,只允许水平方向滚动;或只允许垂直方向滚动...
  9. 服务器 主动 推送 客户端浏览器 消息***
  10. Ubuntu dns