Requuests 官方的介绍时多么的霸气,之所以那么霸气,是因为 Requestts 相比于 urllib 在使用方面上会让开发者感到更加的人性化、更加简洁、更加舒适,并且国外的一些公司也在使用requests库。

看看他又那些特性:

  。Keep-Alive & 连接池

  。国际化域名和 URI

  。带持久 Cookie 的会话

  。浏览器式的 SSL认证

  。自动内容解码

  。基本/摘要式的身份认证

  。优雅的key/value Cookie

  。自动解压

  。Unicode 响应体

  。HTTP(S)代理支持

  。文件分块上传

  。流下载

  。连接超时

·  。分块请求

  。支持.netrc

1、简单的专抓取页面

import requests# 使用 get 请求方式
response = requests.get("https://tieba.baidu.com/")
print(response.text)

# 使用 post 方式请求response = requests.post("https://tieba.baidu.com/")print(response.text)

2、使用代理

  有些网站做了浏览器频率限制。如果我们请求该网站频率过高,该网站会封掉我们的 IP,禁止我们的访问,所以我们需要使用代理来突破这“枷锁”。这里需要用到 proxies参数,proxies 也是一个字典类型。具体用法如下

importsurl = "http://tieba.baidu.com/"
proxies = {"http":"web-proxy.oa.com:8080","https":"web-proxy.oa.com:8080"# 若你的代理需要使用 HTTP Basic Auth,可以使用 http://password@host/语法
}response = requests.get(url, proxies = proxies)
print(response.text)
print(response.url)

3、使用 Cookie

   想在响应结果中获取 cookie 的一些值,可以直接访问。

response。cookies['key'] # key 为 Cookie 字典中键

  想发送 cookie 到服务器,可以使用 cookies 参数。同样该参数是字典类型

url = ‘http://httpin.org/cookies/'

cookies = {"domain":'httpin.org',}response = requests.get(url, cookies = cookies)
print(response.text)

转载于:https://www.cnblogs.com/jcjc/p/11124992.html

urllib 库的代替品 requests 的用法相关推荐

  1. 爬虫库分享(一):requests常见用法总结

    一.前言 requests是Python中一个用来发出HTTP请求的库,它将复杂的网络请求封装为一个简单的API以供用户调用,对于一般比较简单的爬虫程序而言,requests库足矣,今天博主分享一下r ...

  2. 第三部分 基本库的使用(urllib库, requests库, re库)

    Python提供了功能齐全的类库来完成网络请求.基础库的HTTP库有urllib, httplib2, requests, treq等. 比如说rullib库,不用关心底层怎么实现的,只要关心请求的链 ...

  3. urllib库的使用(一篇就够了)

    在Python2中,有urllib和urllib2两个库来实现请求的发送,而在Python3中,统一为了urllib,其官方文档链接为:https://docs.python.org/3/librar ...

  4. 爬虫 :urllib库的用法,关于 request,parse模块总结

    urllib库 它是python内置的请求库,包括 request ,error ,parse,robotparse. 这里主要介绍request 和parse模块. request 它是HTTP请求 ...

  5. Python爬虫入门(4):Urllib库的高级用法

    Python爬虫入门(1):综述 Python爬虫入门(2):爬虫基础了解 Python爬虫入门(3):Urllib库的基本使用 Python爬虫入门(4):Urllib库的高级用法 Python爬虫 ...

  6. Python爬虫入门四之Urllib库的高级用法

    1.设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性. 首先,打开我们的浏览 ...

  7. 【Python爬虫】requests与urllib库的区别

    我们在使用python爬虫时,需要模拟发起网络请求,主要用到的库有requests库和python内置的urllib库,一般建议使用requests,它是对urllib的再次封装,它们使用的主要区别: ...

  8. Python3爬虫入门之Urllib库的用法

    urllib库的用法 urlopen urllib.request.urlopen(url,data=None,[timeout,]*,cafile=None,cadefault=False,cont ...

  9. python requests下载图片_Python使用urllib库、requests库下载图片的方法比较

    我们知道,使用Python制作一个爬虫程序,requests库是一个不错的选择,requests发送网络请求非常简单,比较使用urllib库,使用requests库可以大大减少代码量,它还可以定制请求 ...

  10. 浅谈Python两大爬虫库——urllib库和requests库区别

    一.前言 在使用Python爬虫时,需要模拟发起网络请求,主要用到的库有requests库和python内置的urllib库,一般建议使用requests,它是对urllib的再次封装. 那它们两者有 ...

最新文章

  1. 详解PyTorch编译并调用自定义CUDA算子的三种方式
  2. python验证中心极限定理_我竟然混进了Python高级圈子!
  3. java获取手机号码归属地_手机号码归属地能否取消?这些热点问题,工信部回复了...
  4. 如何线程安全地遍历List:Vector、CopyOnWriteArrayList
  5. python微博评论爬虫_详解用python写网络爬虫-爬取新浪微博评论 基于Python的新浪微博爬虫研究...
  6. python3 应用 nose_parameterized 实现unittest 参数化
  7. php是不是面向对象编程,PHP面向对象编程入门
  8. linux驱动编写(设备树)
  9. MyBatis6:MyBatis集成Spring事物管理(下篇)
  10. 群晖6.1安装php3.6_教程分享 --- jun大神 VMWare虚拟机安装黑群晖 (DSM6.1)
  11. 2020计算机视觉会议地点,2020年计算机视觉与信息技术国际会议(CVIT 2020)
  12. 腾讯研究院发布《2021数字科技前沿应用趋势》
  13. 分享一个盟重英雄脚本挂机工具(附随机数生成源码)
  14. 《土力学与地基基础(二)》在线平时作业3
  15. rotation的单位是角度
  16. 深度学习系列(四):什么是稀疏编码
  17. Spring cloud 多种限流方案
  18. 算法竞赛-ch2-水仙花数
  19. APFS分区容器扩容
  20. 自动控制原理MATLAB常用函数总结

热门文章

  1. Gephi初识之简单绘图学习
  2. 2021-06-27函数定义与参数
  3. linux 终端 拼音,告诉你Ubuntu中文智能拼音输入法配置的方法及命令
  4. mac上latex生成不了pdf_Mac 10.8 下安装Sphinx并支持生成中文PDF
  5. ChainIDE 3. 使用truffle部署合约
  6. 调度 Cmax和∑Ci是什么区别
  7. Java 反射机制 是什么
  8. mac/linux下java项目使用本机自带ssh和scp命令,自动复制上传并部署的脚本
  9. Sphinx 2.2.3 安装和配置,英文数字中文搜索
  10. Java SE 随机数生成器 Random