request模块简介

  • request模块
    • 一、安装
    • 二、request常用方法
    • 三、响应对象response的方法
  • 保存图片案例
    • request模块 保存图片
      • request模块 第一种保存图片的方式
      • request模块 第二种保存图片的方式
    • urllib模块 保存图片
      • 第一种导入方式,以及第一种保存图片方式
      • 第二种导入方式,以及第二种保存图片方式
    • 完整代码如下:

request模块

一、安装

● pip install requests
● 在开发工具中安装

二、request常用方法

● requests.get(网址)

三、响应对象response的方法

● response.text 返回unicode格式的数据(str)
● response.content 返回字节流数据(二进制)
● response.content.decode(‘utf-8’) 手动进行解码
● response.url 返回url
● response.encode() = ‘编码’

保存图片案例

request模块 保存图片

首先导入request模块,然后向url发送get请求

import requestsurl = "https://gimg2.baidu.com/image_search/src=http%3A%2F%2Finews.gtimg.com%2Fnewsapp_match%2F0%2F11012685795%2F0.jpg&refer=http%3A%2F%2Finews.gtimg.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1651324072&t=b712c65bdf48d9979a572572a72b7d4b"
img_name = 'code.png'
# 发送请求
res = requests.get(url)
print(res.content)

request模块 第一种保存图片的方式

通过with open来将图片保存

# 保存图片、音频之类会使用wb-->以二进制的方式写入
with open(img_name, 'wb') as file_obj:# 保存图片、音频之类 会使用content-->以二进制写入去响应对象里面取file_obj.write(res.content)

request模块 第二种保存图片的方式

通过open来将图片保存

# file_obj是一个文件对象
file_obj = open(img_name,'wb')
file_obj.write(res.content)
# 没用with 要手动关闭
file_obj.close()

urllib模块 保存图片

首先导入urllib模块

import urllib.requesturl = "https://gimg2.baidu.com/image_search/src=http%3A%2F%2Finews.gtimg.com%2Fnewsapp_match%2F0%2F11012685795%2F0.jpg&refer=http%3A%2F%2Finews.gtimg.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1651324072&t=b712c65bdf48d9979a572572a72b7d4b"
img_name = 'code3.png'

第一种导入方式,以及第一种保存图片方式

可以通过书写指定地址将图片保存

file_name = r'F:\pycharm program\pythonProject\爬虫\code4.png'
urllib.request.urlretrieve(url,file_name)

第二种导入方式,以及第二种保存图片方式

通过直接给图片命名,保存在当前文件目录下

import urllib.request
urllib.request.urlretrieve(url,img_name)

完整代码如下:

import requests
import urllib.requesturl = "https://gimg2.baidu.com/image_search/src=http%3A%2F%2Finews.gtimg.com%2Fnewsapp_match%2F0%2F11012685795%2F0.jpg&refer=http%3A%2F%2Finews.gtimg.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1651324072&t=b712c65bdf48d9979a572572a72b7d4b"
img_name = 'code3.png'
# 发送请求
# res = requests.get(url)
# print(res.content)
# # request模块 第一种保存图片的方式
# # 保存图片、音频之类会使用wb-->以二进制的方式写入
# with open(img_name, 'wb') as file_obj:
#     # 保存图片、音频之类 会使用content-->以二进制写入去响应对象里面取
#     file_obj.write(res.content)# request模块 第二种保存图片的方式
# # file_obj是一个文件对象
# file_obj = open(img_name,'wb')
# file_obj.write(res.content)
# # 没用with 要手动关闭
# file_obj.close()#urllib模块
'''
url 是图片的url地址
img_name 是图片的保存的名字
'''
# 第一种导入方式,以及第一种保存图片方式
from urllib import request
file_name = r'F:\pycharm program\pythonProject\爬虫\code4.png'
urllib.request.urlretrieve(url,file_name)
# 第二种导入方式,以及第二种保存图片方式
import urllib.request
urllib.request.urlretrieve(url,img_name)

爬虫----request简介(以及urllib模块和request模块保存图片区别)相关推荐

  1. python urllib.request 爬虫 数据处理-python之爬虫(三) Urllib库的基本使用

    什么是Urllib Urllib是python内置的HTTP请求库 包括以下模块 urllib.request 请求模块 urllib.error 异常处理模块 urllib.parse url解析模 ...

  2. python爬虫(一)urllib.request库学习总结

    一.简单介绍 urllib库:是python的内置请求库,常用于网页的请求访问. 包括以下模块: urllib.request 请求模块 urllib.error 异常处理模块 urllib.pars ...

  3. 爬虫实战学习笔记_6 网络请求request模块:基本请求方式+设置请求头+获取cookies+模拟登陆+会话请求+验证请求+上传文件+超时异常

    1 requests requests是Python中实现HTTP请求的一种方式,requests是第三方模块,该模块在实现HTTP请求时要比urlib.urllib3模块简化很多,操作更加人性化. ...

  4. nodejs入门教程之http的get和request简介及应用

    nodejs入门教程之http的get和request简介及应用 前言 上一篇文章,我介绍了nodejs的几个常用的模块及简单的案例,今天我们再来重点看一下nodejs的http模块,关于http模块 ...

  5. 详细解读Volley(二)—— ImageRequest Request简介

    上篇文章我们讲到了如何用volley进行简单的网络请求,我们可以很容易的接受到string.JsonObjec类型的返回结果,之前的例子仅仅是一次请求,这里需要说明volley本身就是适合高并发的,所 ...

  6. Crawler:关于爬虫的简介、安装、使用方法之详细攻略

    Crawler:关于爬虫的简介.安装.使用方法之详细攻略 目录 爬虫简介 爬虫过程思路 关于Python实现爬虫的一些包 1.requests 2.beautifulsoup 3.scrapy 关于爬 ...

  7. pythonurllib模块-python3之模块urllib

    urllib是python内置的HTTP请求库,无需安装即可使用,它包含了4个模块: request:它是最基本的http请求模块,用来模拟发送请求 error:异常处理模块,如果出现错误可以捕获这些 ...

  8. python爬虫设计模式_Python3网络爬虫(一):利用urllib进行简单的网页抓取

    点击蓝色字免费订阅,每天收到这样的好信息 前言:最近有不少粉丝关注本公众号.并且我已经成功开通了流量主同时会赚一点点广告费,我打算每个月把这部分钱拿出来给大家买点书刊,算是给大家一点福利吧.大家想买什 ...

  9. Python 爬虫---(3)Urllib库使用介绍

    1.Urllib库使用详解 Urllib是python内置的HTTP请求库 包括以下模块 urllib.request 请求模块 urllib.error 异常处理模块 urllib.parse ur ...

  10. 爬虫-1-基础和urllib

    爬虫基础 一.爬虫介绍 什么是爬虫 爬虫:网络爬虫又称为网络蜘蛛,网络蚂蚁,网络机器人等,可以自动化浏览网络中的信息,当然浏览信息的时候需要按照我们的规定的规则进行,这些规则称之为网络爬虫算法,使用p ...

最新文章

  1. vb excel 整行删除_Excel中常用的批量处理都不掌握,那就真的Out了
  2. centos删除文件夹_等保测评主机安全之centos密码长度
  3. mbsfn子帧_区分小区内子帧状态的方法、装置以及系统_2008100004878_说明书_专利查询_专利网_钻瓜专利网...
  4. 你担心大家会滥用的全局变量,大家(包括你自己)一定会滥用
  5. [ruby on rails] 跟我学之(7)创建数据
  6. 【Linux 驱动】第十章 中断处理
  7. 【图像处理】二维付立叶变换和滤波 (Two-Dimensional Fourier Transform and Filtering)
  8. MFC CListCtrl 将一个列表的选中项添加到另一个列表
  9. “牙医”教你用450行Go代码自制编程语言 | Gopher Daily (2021.01.15) ʕ◔ϖ◔ʔ
  10. wbs简单介绍以及相关模板截图
  11. 计算几何——判断点是否在多边形内
  12. 批量删除多个 PPT 空白页
  13. JAVA_OPTS参数说明与配置
  14. 结构化分析与设计方法
  15. 前端实现省市县三级联动的功能
  16. NOIP2017普及组复赛——T4跳房子
  17. 通过className属性给一个元素追加新class(addClass函数)
  18. 实时视频通话超低延迟架构的思考与实践
  19. GF系列卫星分辨率介绍
  20. 摇一摇周边:微信是这样连接线下商户的

热门文章

  1. 微软承认部分 Win10 安装 12 月更新后出现 0xc000021a 蓝屏错误
  2. 远山启:用数学照亮人性与自由
  3. 计算机控制面板中无法删除程序,电脑在控制面板中无法打开添加或删除程序
  4. 关系抽取Casrel实现(Pytorch版)
  5. 计算机协会见面会游戏,计算机协会新会员见面大会会长演讲稿
  6. 数据挖掘的十大经典算法
  7. 视频加密后的录屏行为怎么做防范?
  8. 当微信小程序遇上filter~
  9. 电视盒子和机顶盒有什么区别?哪个更值得买?
  10. [香橙派]win10使用简短的cmd命令实现ssh快速登录