Requests 2.18.1文档
发送请求
使用Requests发送网络请求非常简单。
一开始要导入Requests模块:
>>> import requests
然后,尝试获取某个网页。本例中,我们来获取Github的公共时间线
>>> r = requests.get('https://api.github.com/events')
现在,我们有一个名为 r
的 Response
对象。我们可以从这个对象中去获取所有我们想要的信息。
Requests简便的API意味着所有HTTP请求类型都是显而易见的。例如,你可以这样发送一个HTTP POST请求:
>>> r = requests.post('http://httpbin.org/post', data = {'key': 'value'})
漂亮,对吧?那么其他HTTP请求类型:PUT, DELETE,HEAD以及OPTIONS又是如何的呢?都是一样的简单:
>>> r = requests.put('http://httpbin.org/put', data = {'key': 'value'})
>>> r = requests.delete('http://httpbin.org/delete')
>>> r = requests.head('http://httpbin.org/get')
>>> r = requests.options('http://httpbin.org/get')
都很不错吧,但这也仅是Requests的冰山一角呢。
传递URL参数
你也许经常想为URL的查询字符串(query string)传递某种数据。如果你是手工创建URL,那么数据会以键/值对的形式置于URL中,跟在一个问号的后面。例如,httpbin.org/get?key=val。Requests允许你使用params关键字参数,以一个字符串字典来提供这些参数。举例来说,如果你想传递key1=value1和key2=value2到httpbin.org/get,那么你可以使用如下代码:
>>> payload = {'key1': 'value1', 'key2': 'value2'}
>>> r = requests.get("http://httpbin.org/get", params=payload)
通过打印输出该URL,你能看到URL已被正确解码:
>>> print(r.url)
http://httpbin.org/get?key2=value2&key1=value1
注意字典里值为None的键都不会被添加到URL的查询字符串里。
你还可以将一个列表作为值传入:
>>> payload = {'key1': 'value1', 'key2': ['value2', 'value3']}
>>> r = requests.get('http://httpbin.org/get', params=payload)
>>> print(r.url)
http://httpbin.org/get?key1=value1&key2=value2&key2=value3
响应内容
我们能读取服务器响应的内容。再次以Github时间线为例:
>>> import requests
>>> r = requests.get('https://api.github.com/events')
>>> r.text
u'[{"repository":{"open_issues":0,"url":"https://github.com/...
Requests会自动解码来自服务器的内容。大多数unicode字符集都能被无缝地解码。
请求发出后,Requests会基于HTTP头部对响应的编码作出有根据的推测。当你访问r.text之时,Requests会使用其推测的文本编码。你可以找出Requests使用了什么编码,并且能够使用r.encoding属性来改变它:
>>> r.encoding
'utf-8'
>>> r.encoding = 'ISO-8859-1'
如果你改变了编码,每当你访问r.text,Request都将会使用r.encoding的新值。你可能希望在使用特殊逻辑计算出文本的编码的情况下来修改编码。比如HTTP和XML自身可以指定编码。这样的话,你应该使用r.content来找到编码,然后设置r.encoding为相应的编码。这样就能使用正确的编码解析r.text了。
在你需要的情况下,Requests也可以使用定制的编码。如果你创建了自己的编码,并使用codecs模块来进行注册,你就可以轻松地使用这个编码器名称作为r.encoding的值,然后由Requests来为你处理编码。
二进制响应内容
你也能以字节的方法访问请求响应体,对于非文本请求:
>>> r.content
b'[{'repository":{"open_issues":0,"url":"https://github.com/...
Requests会自动为你解码gzip和deflate传输编码的响应数据。
例如,以请求返回的二进制数据创建一张图片,你可以使用如下代码:
>>> from PIL import Image
>>> from io import BytesIO
>>> i = Image.open(BytesIO(r.content))
JSON响应内容
Requests中也有一个内置的JSON解码器,助你处理JSON数据:
>>> import requests
>>> r = requests.get('https://api.github.com/events')
>>> r.json()
[{u'repository': {u'open_issues': 0, u'url': 'https://github.com/...
如果JSON解码失败,r.json()就会抛出一个异常。例如,响应内容是401(Unauthorized),尝试访问r.json()将会抛出ValueError: No JSON object could be decoded异常。
需需要注意的是,成功调用r.json()并**不**意味着响应的成功。有的服务器会在失败的响应中包含一个JSON对象(比如HTTP 500的错误细节)。这种JSON会被解码返回。要检查请求是否成功,请使用r.raise_for_status()或者检查r.status_code是否和你的期望相同。
原始响应内容
在罕见的情况下,你可能想获取来自服务器的原始套接字响应,那么你可以访问r.raw。如果你确实想这么干,那请你确保在初始请求中设置了stream=True。具体你可以这么做:
>>> r = requests.get('https://api.github.com/events', stream=True)
>>> r.raw
<requests.packages.urllib3.response.HTTPResponse object at 0x101194810>
>>> r.raw.read(10)
'\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'
但一般情况下,你应该以下面的模式将文本流保存到文件:
with open(filename, 'wb') as fd:
for chunk in r.iter_content(chunk_size):
fd.write(chunk)
使用Response.iter_content将会处理大量你直接使用Response.raw不得不处理的。当流下载时,上面是优先推荐的获取内容方式。Note that chunk_size can be freely adjusted to a number that may better fit your use cases.
定制请求头
如果你想为请求添加HTTP头部,只要简单地传递一个dict给headers参数就可以了。
例如,在前一个示例中我们没有指定content-type:
>>> url = 'https://api.github.com/some/endpoint'
>>> headers = {'user-agent': 'my-app/0.0.1'}
>>> r = requests.get(url, headers=headers)
注意:定制header的优先级低于某些特定的信息源,例如:
注意:定制header的优先级低于某些特定的信息源,例如:
- 如果在.netrc中设置了用户认证信息,使用headers=设置的授权就不会生效。而如果设置了auth=参数,··.netrc``的设置就无效了。
- 如果被重定向到别的主机,授权header就会被删除。
- 代理授权header会被URL中提供的代理身份覆盖掉。
- 在我们能判断内容长度的情况下,header的Content-Length会被改写。
更进一步讲,Requests不会基于定制header的具体情况改变自己的行为。只不过在最后的请求中,所有的header信息都会被传递出去。
注意:所有的header值必须是string、bytestring或者unicode。尽管传递unicode header也是允许的,但不建议这样做。
更加复杂的POST请求
通常,你想要发送一些编码为表单形式的数据----非常像一个HTML表单。要实现这个,只需简单地传递一个字典给data参数。你的数据字典在发出请求时会自动编码为表单形式:
>>> payload = {'key1': 'value1', 'key2': 'value2'}
>>> r = requests.post("http://httpbin.org/post", data=payload)
>>> print(r.text)
{..."form": {"key2": "value2","key1": "value1"},...
}
你还可以为data参数传入一个元组列表。在表单中多个元素使用同一key的时候,这种方法尤其有效:
>>> payload = (('key1', 'value1'), ('key1', 'value2'))
>>> r = requests.port('http://httpbin.org/post', data=payload)
>>> print(r.text)
{
...
"form": {
"key1": [
"value1",
"value2"
]
},
...
}
很多时候你想要发送的数据并非编码为表单形式的。如果你传递一个string而不是一个dict,那么数据会被直接发布出去。
例如,Github API v3接收编码为JSON的POST/PATCH数据:
>>> import json
>>> url = 'https://api.github.com/some/endpoint'
>>> payload = {'some': 'data'}
>>> r = request.post(url, data=json.dumps(payload))
此处除了可以自行对dict进行编码,你还可以使用json参数直接传递,然后它就会被自动编码。这是2.4.2版的新功能:
>>> url = 'https://api.github.com/some/endpoint'
>>> payload = {'some': 'data'}
>>> r = requests.post(url, json=payload)
POST一个多部分编码(Multipart-Encoded)的文件
Requests使得上传多部分编码文件变得很简单:
>>> url = 'http://httpbin.org/post'
>>> files = {'file': open('report.xls', 'rb')}
>>> r = requests.post(url, files=files)
>>> r.text
{
...
"files": {
"file": "<censored...binary...data>"
},
...
}
你可以显示地设置文件名,文件类型和请求头:
>>> url = 'http://httpbin.org/post'
>>>files = {'file': ('report.xls', open('report.xls', 'rb'), 'application/vnd.ms-excel', {'Expires': '0'})}
>>> r = requests.port(url, files=files)
>>> r.text
{
...
"files": {
"file": "<censored...binary...data>"
},
...
}
如果你想,你也可以发送作为文件来接收的字符串:
>>> url = 'http://httpbin.org/post'
>>> files = {'file': ('report.csv', 'some,data,to,send\nanother,row,to,send\n')}
>>> r = requests.post(url, files=files)
>>> r.text
{
...
"files": {
"file": "some,data,to,send\\nanother,row,to,send\\n"
},
...
}
如果你发送一个非常大的文件作为multipart/form-data请求,你可能希望将请求做成数据流。默认下requests不支持,但有个第三方包requests-toolbelt是支持的。你以阅读 toolbelt 文档来了解使用方法。
在一个请求中发送多文件参考 高级用法 一节。
警告:
我们强烈建议你用二进制模式(binary mode)打开文件。这是因为Requests可能会试图为你提供Content-Length header,在它这样做的时候,这个值会被设置为文件的字节数(bytes)。如果用文本模式(text mode)打开文件。就可能会发送错误。
响应状态码
我们可以检测响应状态码:
>>> r = requests.get('http://httpbin.org/get')
>>> r.status_code
200
为方便引用,Requests还附带了一个内置的状态码查询对象:
>>> r.status_code == requests.codes.ok
True
如果发送了一个错误请求(一个4XX客户端错误,或者5XX服务器错误响应),我们可以通过Response.raise_for_status()来抛出异常:
>>> bad_r = requests.get('http://httpbin.org/status/404')
>>> bad_r.status_code
404
>>> bad_r.raise_for_status()
Traceback (most recent call last):
File "requests/models.py", line 832, in raise_for_status
raise http_error
Requests.execptions.HTTPError: 404 Client Error
但是,由于我们的例子中r的status_code是200,当我们调用raise_for_status()时,得到的是:
>>> r.raise_for_status()
None
一切都挺和谐哈。
响应头
我们可以查看以一个Python字典形式展示的服务器响应头:
>>> r.headers
{
'content-encoding': 'gzip';
'transfer-encoding': 'chunked',
'connection': 'close',
'server': 'nginx/1.0.4',
'x-runtime': '148ms',
'etag': '"e1ca502697e5c9317743dc078f67693f"',
'content-type': 'application/json'
}
但是这个字典比较特殊:它是仅为HTTP头部而生的。根据 RFC 2616, HTTP 头部是大小写不敏感的。
因此,我们可以使用任意大写形式来访问这些响应头字段:
>>> r.headers['Content-Type']
'application/json'
>>> r.headers.get('content-type')
'application/json'
它还有一个特殊点,那就是服务器可以多次接受同一header,每次都使用不同的值。但Requests会将它们合并,这样它们就可以用一个映射来表示出来,参数RFC 7230:
A recipient MAY combine multiple header fields with the same field name into one "field-name: field-value" pair, without changing the semantics of the message, by appending each subsequent field value to the combined field value in order, separated by comma.
接收者可以合并多个相同名称的header栏位,把他们何为一个"field-name:field-value"配对,将每个后续的栏位值一次追加到合并的栏位值中,用逗号隔开即可,这样做不会改变信息的语义。
Cookie
如果某个响应中包含一些cookie,你可以快速访问它们:
>>> url = 'http://example.com/some/cookie/setting/url'
>>> r = requests.get(url)
>>> r.cookies['example_cookie_name']
'example_cookie_value'
要想发送你的cookies到服务器,可以使用cookies参数:
>>> url = 'http://httpbin.org/cookies'
>>> cookies = dict(cookies_are='working')
>>> r = requests.get(url, cookies=cookies)
>>> r.text
'{"cookies": {"cookies_are": "working"}}'
Cookie的返回对象为RequestsCookieJar,它的行为和字典类似,但接口更为完整,适合跨域名跨路径使用。你还可以把CookieJar传到Requests中:
>>> jar = requests.cookies.RequestsCookieJar()
>>> jar.set('tasty_cookie', 'yum', domain='httpbin.org', path='/cookies')
>>> jar.set('gross_cookie', 'blech', domain='httpbin.org', path='elsewhere')
>>> url = 'http://httpbin.org/cookies'
>>> r = requests.get(url, cookies=jar)
>>> r.text
'{"cookies": {"tasty_cookie": "yum"}}'
重定向与请求历史
默认情况下,除了HEAD,Requests会自动处理所有重定向。
可以使用响应对象的history方法来追踪重定向。
Response.history是一个Response对象的列表,为了完成请求而创建了这些对象。这个对象列表按照从最老到最近的请求进行排序。
例如,Github将所有的HTTP请求重定向到HTTPS:
>>> r = requests.get('http://github.com')
>>> r.url
'https://github.com/'
>>> r.status_code
200
>>> r.history
[<Response [301]>]
如果你使用的是GET、OPTIONS、POST、PUT、PATH或者DELETE,那么你可以通过allow_redirects参数禁用重定向处理:
>>> r = requests.get('http://github.com', allow_redirects=False)
>>> r.status_code
301
>>> r.history
[]
如果你使用了HEAD,你也可以启用重定向:
>>> r = requests.head('http://github.com', allow_redirects=True)
>>> r.url
'https://github.com/'
>>> r.history
[<Response [301]>]
超时
你可以告诉requests在经过以timeout参数设定的秒数时间之后停止等待响应。基本上所有的生产代码都应该使用这一参数。如果不使用,你的程序可能会永远失去响应:
>>> requests.get('http://github.com', timeout=0.001)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
requests.exceptions.Timeout: HTTPConnectionPool(host='github.com', port=80): Request timed out. (timeout=0.001)
注意:
timeout仅对连接过程有效,与响应体的下载无关。timeout并不是整个下载响应的时间限制,而是如果服务器在timeout秒内没有应答,将会引发一个异常(更精确地说,是在timeout秒内没有从基础套接字上接收到任何字节的数据时) If no timeout is specified explicitly, requests do not time out.
错误与异常
遇到网络问题(如:DNS查询失败、拒绝连接等)时,Requests会抛出一个ConnectionError异常。
如果HTTP请求返回了不成功的状态码,Response.raise_for_status()会抛出一个HTTPError异常。
若请求超时,则抛出一个Timeout异常。
若请求超过了设定的最大重定向次数,则会抛出一个TooManyRedirects异常。
所有Requests显式抛出的异常都继承自requests.exceptions.RequestException。
准备好学习更多内容了吗?去 高级用法 一节看看吧。
Requests 2.18.1文档相关推荐
- 服务器脱机18个文档正在打印,打印机提示脱机打印的解决方案.docx
打印机提示脱机打印的解决方案 故障现象: WinlO.Win8.Win7.WinXP等系统下,打印机提示脱机打印,无法正常使用. 解决方案: 现象1: Win10系统下,打印机提示脱机打印 解决步骤 ...
- Elasticsearch中如何进行排序(中文+父子文档+嵌套文档)
Elasticsearch中如何进行排序 背景 最近去兄弟部门的新自定义查询项目组搬砖,项目使用Elasticsearch进行数据的检索和查询.每一个查询页面都需要根据选择的字段进行排序,以为是一个比 ...
- javadoc - Java API 文档生成器(Windows版本)
文章目录 简介 命令语法结构 Javadoc Doclets 术语 带文档的类 引用类 外部引用类 源文件 源代码文件 包注释文件 概述注释文件 其他未处理文件 生成的文件 基本内容页 交叉参考页 支 ...
- 华师网教计算机应用基础作业,华师大网络教育选修课《计算机应用基础统考》平时作业答案(13页)-原创力文档...
华师大网络教育选修课<计算机应用基础统考>平时作业答案 题目 1 世界上第一台电子计算机" ENIAC "采用的逻辑元件是 大规模集成电路 集成电路 晶体管 电子管 答 ...
- Jenkins 文档特别兴趣小组
本文首发于:Jenkins 中文社区 我们很高兴地宣布 Jenkins 文档特别兴趣小组的成立. 文档特别兴趣小组鼓励贡献者和外部社区创建和 review Jenkins 文档. 更多详情和计划,请参 ...
- 文档型非关系数据库MongoDB经验总结
文档型非关系数据库MongoDB 数据库基础概念 数据:能够输入到计算机中并被识别处理的信息集合 数据结构:研究一个数据集合中,数据元素关系 数据库:按照数据结构,存储管理数据的仓库.数据仓库是在数据 ...
- Jacob处理Word文档总结以及Java操作Office2007
使用Jacob来处理Word文档 Word或Excel程序是以一种COM组件形式存在的.如果能够在Java中调用Word的COM组件,就 能使用它的方法来获取Word文档中的文本信息.目前网上有许多提 ...
- 开始使用Elasticsearch (1): 如何创建index,添加、删除、更新文档
本文内容来自 https://blog.csdn.net/UbuntuTouch/article/details/99481016 ,有删减和文字修正. 在开始使用ES之前, 请安装好ES & ...
- zookeeper 分布式过程协同技术详解.pdf_阿里大牛耗时18个月整理这份ZooKeeper分布式详解文档...
前言 摩尔定律揭示了集成电路每18个月计算性能就会增加一倍.随着信息的飞速膨胀,很多应用都无法依赖单个服务器的性能升级来处理如此庞大的数据量,分布式系统和应用越来越受到人们的青睐.分布式系统和应用不仅 ...
最新文章
- DevOps与持续交付实践
- 世界首富贝佐斯将“退休”
- selenium-webdriver(python) (十六) --unittest 框架
- Java语言实现插值查找
- Docker使用-Hello World
- WCF 部署在IIS上
- 阶段3 2.Spring_07.银行转账案例_10 使用动态代理实现事务控制
- 两个时间相减(vb.net)
- 知识点:西门子仿真PLCWindows平台测试说明
- 论文笔记(1) B4: Experience with a Globally-Deployed Software Defined WAN
- imagenet2012 对应 label
- 【机器学习入门】(6) 随机森林算法:原理、实例应用(沉船幸存者预测)附python完整代码和数据集
- JAVA购物网站商城系统毕业设计 开题报告
- 网站外链如何才能被搜索引擎快速收录呢?
- 国产电动汽车与特斯拉差多少?
- linux查看文件命令
- the mid-autumn festival
- 排序:快排(随机选择枢轴)、堆排序、归并排序
- 阅读笔记|Retrieve and Refine: Exemplar-based Neural Comment Generation
- BCB6.0 Import Type Library Excel2003时报错:因为我安装了Excel2007兼容包 的缘故
热门文章
- Intellij IDEA中安装使用PlantUML画时序图、类图等
- epoll和select的区别
- android按钮防止重复点击事件,实例详解Android解决按钮重复点击问题
- concurrent 底层_万字长文!从底层开始带你了解并发编程,彻底帮你搞懂Java锁!
- 获取昨天凌晨毫秒数_Java 获取当前时间距离当天凌晨的秒数
- linux mmu的实现的讲解_Linux中的段
- java 向已存在的excel中追加数据 .
- Android入门第十五篇之ActivityGroup + GridView 实现Tab分页标签
- c语言产生1-6,C语言 1-6小结.ppt
- kux转换为mp4软件_kux2mp4(优酷kux转换为mp4软件)下载-kux2mp4(优酷kux转换为mp4软件)免费版下载v2021...