Requests库常用方法及参数介绍

Requests 库中定义了七个常用的请求方法,这些方法各自有着不同的作用,在这些请求方法中 requests.get() 与 requests.post() 方法最为常用。请求方法如下所示:

常用请求方法

方法 说明
requests.request() 构造一个请求对象,该方法是实现以下各个方法的基础。
requests.get() 获取HTML网页的主要方法,对应于 HTTP 的 GET 方法。
requests.head() 获取HTML网页头信息的方法,对应于 HTTP 的 HEAD 方法。
requests.post() 获取 HTML 网页提交 POST请求方法,对应于 HTTP 的 POST。
requests.put() 获取HTML网页提交PUT请求方法,对应于 HTTP 的 PUT。
requests.patch() 获取HTML网页提交局部修改请求,对应于 HTTP 的 PATCH。
requests.delete() 获取HTML页面提交删除请求,对应于 HTTP 的 DELETE。

上述方法都提供了相同的参数,其中某些参数已经使用过,比如headers和params,前者用来构造请求头,后者用来构建查询字符串。这些参数对于编写爬虫程序有着至关重要的作用。本节对其他常用参数做重点介绍。

SSL认证-verify参数

SSL 证书是数字证书的一种,类似于驾驶证、护照和营业执照。因为配置在服务器上,也称为 SSL 服务器证书。SSL 证书遵守 SSL 协议,由受信任的数字证书颁发机构 CA(电子认证服务)颁发。 SSL 具有服务器身份验证和数据传输加密功能。

verify参数的作用是检查 SSL 证书认证,参数的默认值为 True,如果设置为 False 则表示不检查 SSL证书,此参数适用于没有经过 CA 机构认证的 HTTPS 类型的网站。其使用格式如下:

response = requests.get(url=url,params=params,headers=headers,verify=False
)

代理IP-proxies参数

一些网站为了限制爬虫从而设置了很多反爬策略,其中一项就是针对 IP 地址设置的。比如,访问网站超过规定次数导致流量异常,或者某个时间段内频繁地更换浏览器访问,存在上述行为的 IP 极有可能被网站封杀掉。

代理 IP 就是解决上述问题的,它突破了 IP 地址的访问限制,隐藏了本地网络的真实 IP,而使用第三方 IP 代替自己去访问网站。

1) 代理IP池

通过构建代理 IP 池可以让你编写的爬虫程序更加稳定,从 IP 池中随机选择一个 IP 去访问网站,而不使用固定的真实 IP。总之将爬虫程序伪装的越像人,它就越不容易被网站封杀。当然代理 IP 也不是完全不能被察觉,通过端口探测技等术识仍然可以辨别。其实爬虫与反爬虫永远相互斗争的,就看谁的技术更加厉害。

2) proxies参数
Requests 提供了一个代理 IP 参数proxies,该参数的语法结构如下:

proxies = {'协议类型(http/https)':'协议类型://IP地址:端口号'}

下面构建了两个协议版本的代理 IP,示例如下:

proxies = {'http':'http://IP:端口号','https':'https://IP:端口号'
}

3) 代理IP使用

下面通过简单演示如何使用proxies参数,示例如下:

import requests
​
url = 'http://httpbin.org/get'
headers = {'User-Agent':'Mozilla/5.0'
}
# 网上找的免费代理ip
proxies = {'http':'http://191.231.62.142:8000','https':'https://191.231.62.142:8000'
}
html = requests.get(url,proxies=proxies,headers=headers,timeout=5).text
print(html)

输出结果:

{"args": {},"headers": {"Accept": "*/*","Accept-Encoding": "gzip, deflate","Cache-Control": "max-age=259200","Host": "httpbin.org","User-Agent": "Mozilla/5.0","X-Amzn-Trace-Id": "Root=1-605073b0-4f54db1b2d2cfc0c074a1193"},# 注意此处显示两个IP,第一个是你自己的真实IP,另外一个是对外展示的IP"origin": "121.17.25.194, 191.235.72.144", "url": "http://httpbin.org/get"
}

由于上述示例使用的是免费代理 IP,因此其质量、稳定性较差,可能会随时失效。如果想构建一个稳定的代理 IP 池,就需要花费成本。

4) 付费代理IP

网上有许多提供代理 IP 服务的网 站,比如快代理、代理精灵、齐云代理等。这些网站也提供了相关文档说明,以及 API 接口,爬虫程序通过访问 API 接口,就可以构建自己的代理 IP 池。

付费代理 IP 按照资源类型可划分为:开发代理、私密代理、隧道代理、独享代理,其中最常使用的是开放代理与私密代理。

开放代理:开放代理是从公网收集的代理服务器,具有 IP 数量大,使用成本低的特点,全年超过 80% 的时间都能有 3000 个以上的代理 IP 可供提取使用。

私密代理:私密代理是基于云主机构建的高品质代理服务器,为您提供高速、可信赖的网络代理服务。私密代理每天可用 IP 数量超过 20 万个,可用率在 95 %以上,1 次可提取 IP 数量超过 700 个,可以为爬虫业务提供强大的助力。

付费代理的收费标准根据 IP 使用的时间长短,以及 IP 的质量高低,从几元到几百元不等。89 免费代理(http://www.89ip.cn/)是一个专门提供免费代理 IP 的网站,不过想找到一个质量较高的免费代理好比大海捞针。

用户认证-auth参数

Requests 提供了一个auth参数,该参数的支持用户认证功能,也就是适合那些需要验证用户名、密码的网站。auth 的参数形式是一个元组,其格式如下:

auth = ('username','password')
其使用示例如下所示:
class xxxSpider(object):def __init__(self):self.url = 'http://code.tarena.com.cn/AIDCode/aid1906/13Redis/'# 网站使用的用户名,密码self.auth = ('c语言中文网','c.biancheng.net')
​def get_headers(self):headers = {'User-Agent':"Mozilla/5.0"}return headers
​def get_html(self,url):res = requests.get(url,headers=self.get_headers(),auth=self.auth)html = res.contentreturn html
...

如果想更多地了解关于 Requests 库的参数,可以参考官方文档:

https://requests.readthedocs.io/zh_CN/latest/

Requests库常用方法及参数介绍相关推荐

  1. requests库学习

    requests库学习 requests快速上手 http://2.python-requests.org/zh_CN/latest/user/quickstart.html Requests库是用来 ...

  2. Python爬虫从入门到精通─第2课 Requests库讲解

    本教程所有源码下载链接:share.weiyun.com/5xmFeUO 密码:fzwh6g 本教程版权归作者GitOPEN所有,转载请征求作者同意 本教程首发于GitOPEN's Home Requ ...

  3. python中requests的常用方法_Python爬虫简介(2)——请求库的常用方法及使用,python,入门,二,requests,常见,和,库中,文官,网...

    前言 学习使我快乐,游戏使我伤心.今天rushB,又是白给的一天. HXDM,让我们一起学习requests库的方法和使用,沉浸在代码的世界里.呜呜呜~~ 一.requests库介绍 首先列出requ ...

  4. python post 参数_python爬虫——requests库使用代理

    在看这篇文章之前,需要大家掌握的知识技能: python基础 html基础 http状态码 让我们看看这篇文章中有哪些知识点: get方法 post方法 header参数,模拟用户 data参数,提交 ...

  5. 0.爬虫介绍及requests库的使用

    1. 互联网知识介绍 互联网: 是由网络设备(网线, 路由器, 交换机, 防火墙...)和一台台计算机链接而成. 互联网建立的目的: 数据的共享/传递. 俗称的'上网': 由用户端计算机发送请求给目标 ...

  6. python的requests库发送携带上传文件的接口_python requests 库请求带有文件参数的接口实例...

    python requests 库请求带有文件参数的接口实例 有些接口参数是一个文件格式,比如fiddler 抓包参数如下显示 这个接口的 form-data fiddler 显示的和不带文件参数的接 ...

  7. python的requests库介绍_Requests库介绍

    Requests 是用 Beautiful is better than ugly.(美丽优于丑陋) Explicit is better than implicit.(清楚优于含糊) Simple ...

  8. python编写请求参数带文件_python requests 库请求带有文件参数的接口实例

    有些接口参数是一个文件格式,比如fiddler 抓包参数如下显示 这个接口的 form-data fiddler 显示的和不带文件参数的接口有明显区别,显示的不是简单的键值对,所以我们也不能只通过 d ...

  9. python爬虫百科-Python爬虫之requests库介绍(一)

    虽然Python的标准库中 urllib2 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称 "HTTP for Humans&q ...

最新文章

  1. 【Go】string 优化误区及建议
  2. 使用存储过程创建分页
  3. BZOJ 4070 [Apio2015]雅加达的摩天楼 ——分块 SPFA
  4. 运行的Cython的3种方法
  5. fragtats中连接度指数(CONNECT)的具体解释
  6. eclipse里source的快捷方法_教你如何在Linux中设置快捷方式图标
  7. volatile的深入理解--【sky原创】
  8. C#在控制台工程中嵌入winform窗体
  9. 计算机二级第24套Excel解析,Excel | 操作题第 24 套
  10. 用于登录的mysql语句_mysql常用语句
  11. Mac的反编译工具一:otool (objdump工具的OSX对应工具)。
  12. 思科单臂路由最详细教程
  13. python画马鞍面_在matlab中怎么画马鞍面?
  14. matlab优化工具箱安装,matlab优化工具箱安装
  15. 加州大学欧文分校 计算机专业,加州大学欧文分校排名及各专业排名
  16. 零基础使用vscode实现python爬取高德地铁数据
  17. AddressBook获取用户信息
  18. 提高组CSP-S初赛模拟试题整理
  19. 部分HTTPS网站无法访问的可能原因
  20. TMS320F28377S 学习笔记2 BGA封装的焊接

热门文章

  1. word标尺灰色_如何在Microsoft Word中使用标尺
  2. uni-app。APP-PLUS 获取应用缓存,缓存清除
  3. 中科院广州电子CASAIM与东风日产在3D打印生产制造发动机检具及治具应用研究项目顺利落地
  4. 快速分割多段视频,并分离视频和音频
  5. fatal: unable to access ‘https://github.com/NEGVS/the-economist-ebooks.git/‘: schannel: failed to re
  6. 龙测独家AI全新功能上线,手机无感录制,AI自动生成测试用例
  7. leo生鲜配送管理系统2020
  8. opencv-python使用cv2.resize()函数批量放大图片
  9. 用字体,每次都要先开软件,ifonts闪退?不好用怎么办
  10. 微信小程序优惠券到期提醒功能设定指引