爬虫----request简介(以及urllib模块和request模块保存图片区别)
request模块简介
- request模块
- 一、安装
- 二、request常用方法
- 三、响应对象response的方法
- 保存图片案例
- request模块 保存图片
- request模块 第一种保存图片的方式
- request模块 第二种保存图片的方式
- urllib模块 保存图片
- 第一种导入方式,以及第一种保存图片方式
- 第二种导入方式,以及第二种保存图片方式
- 完整代码如下:
request模块
一、安装
● pip install requests
● 在开发工具中安装
二、request常用方法
● requests.get(网址)
三、响应对象response的方法
● response.text 返回unicode格式的数据(str)
● response.content 返回字节流数据(二进制)
● response.content.decode(‘utf-8’) 手动进行解码
● response.url 返回url
● response.encode() = ‘编码’
保存图片案例
request模块 保存图片
首先导入request模块,然后向url发送get请求
import requestsurl = "https://gimg2.baidu.com/image_search/src=http%3A%2F%2Finews.gtimg.com%2Fnewsapp_match%2F0%2F11012685795%2F0.jpg&refer=http%3A%2F%2Finews.gtimg.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1651324072&t=b712c65bdf48d9979a572572a72b7d4b"
img_name = 'code.png'
# 发送请求
res = requests.get(url)
print(res.content)
request模块 第一种保存图片的方式
通过with open来将图片保存
# 保存图片、音频之类会使用wb-->以二进制的方式写入
with open(img_name, 'wb') as file_obj:# 保存图片、音频之类 会使用content-->以二进制写入去响应对象里面取file_obj.write(res.content)
request模块 第二种保存图片的方式
通过open来将图片保存
# file_obj是一个文件对象
file_obj = open(img_name,'wb')
file_obj.write(res.content)
# 没用with 要手动关闭
file_obj.close()
urllib模块 保存图片
首先导入urllib模块
import urllib.requesturl = "https://gimg2.baidu.com/image_search/src=http%3A%2F%2Finews.gtimg.com%2Fnewsapp_match%2F0%2F11012685795%2F0.jpg&refer=http%3A%2F%2Finews.gtimg.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1651324072&t=b712c65bdf48d9979a572572a72b7d4b"
img_name = 'code3.png'
第一种导入方式,以及第一种保存图片方式
可以通过书写指定地址将图片保存
file_name = r'F:\pycharm program\pythonProject\爬虫\code4.png'
urllib.request.urlretrieve(url,file_name)
第二种导入方式,以及第二种保存图片方式
通过直接给图片命名,保存在当前文件目录下
import urllib.request
urllib.request.urlretrieve(url,img_name)
完整代码如下:
import requests
import urllib.requesturl = "https://gimg2.baidu.com/image_search/src=http%3A%2F%2Finews.gtimg.com%2Fnewsapp_match%2F0%2F11012685795%2F0.jpg&refer=http%3A%2F%2Finews.gtimg.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1651324072&t=b712c65bdf48d9979a572572a72b7d4b"
img_name = 'code3.png'
# 发送请求
# res = requests.get(url)
# print(res.content)
# # request模块 第一种保存图片的方式
# # 保存图片、音频之类会使用wb-->以二进制的方式写入
# with open(img_name, 'wb') as file_obj:
# # 保存图片、音频之类 会使用content-->以二进制写入去响应对象里面取
# file_obj.write(res.content)# request模块 第二种保存图片的方式
# # file_obj是一个文件对象
# file_obj = open(img_name,'wb')
# file_obj.write(res.content)
# # 没用with 要手动关闭
# file_obj.close()#urllib模块
'''
url 是图片的url地址
img_name 是图片的保存的名字
'''
# 第一种导入方式,以及第一种保存图片方式
from urllib import request
file_name = r'F:\pycharm program\pythonProject\爬虫\code4.png'
urllib.request.urlretrieve(url,file_name)
# 第二种导入方式,以及第二种保存图片方式
import urllib.request
urllib.request.urlretrieve(url,img_name)
爬虫----request简介(以及urllib模块和request模块保存图片区别)相关推荐
- python urllib.request 爬虫 数据处理-python之爬虫(三) Urllib库的基本使用
什么是Urllib Urllib是python内置的HTTP请求库 包括以下模块 urllib.request 请求模块 urllib.error 异常处理模块 urllib.parse url解析模 ...
- python爬虫(一)urllib.request库学习总结
一.简单介绍 urllib库:是python的内置请求库,常用于网页的请求访问. 包括以下模块: urllib.request 请求模块 urllib.error 异常处理模块 urllib.pars ...
- 爬虫实战学习笔记_6 网络请求request模块:基本请求方式+设置请求头+获取cookies+模拟登陆+会话请求+验证请求+上传文件+超时异常
1 requests requests是Python中实现HTTP请求的一种方式,requests是第三方模块,该模块在实现HTTP请求时要比urlib.urllib3模块简化很多,操作更加人性化. ...
- nodejs入门教程之http的get和request简介及应用
nodejs入门教程之http的get和request简介及应用 前言 上一篇文章,我介绍了nodejs的几个常用的模块及简单的案例,今天我们再来重点看一下nodejs的http模块,关于http模块 ...
- 详细解读Volley(二)—— ImageRequest Request简介
上篇文章我们讲到了如何用volley进行简单的网络请求,我们可以很容易的接受到string.JsonObjec类型的返回结果,之前的例子仅仅是一次请求,这里需要说明volley本身就是适合高并发的,所 ...
- Crawler:关于爬虫的简介、安装、使用方法之详细攻略
Crawler:关于爬虫的简介.安装.使用方法之详细攻略 目录 爬虫简介 爬虫过程思路 关于Python实现爬虫的一些包 1.requests 2.beautifulsoup 3.scrapy 关于爬 ...
- pythonurllib模块-python3之模块urllib
urllib是python内置的HTTP请求库,无需安装即可使用,它包含了4个模块: request:它是最基本的http请求模块,用来模拟发送请求 error:异常处理模块,如果出现错误可以捕获这些 ...
- python爬虫设计模式_Python3网络爬虫(一):利用urllib进行简单的网页抓取
点击蓝色字免费订阅,每天收到这样的好信息 前言:最近有不少粉丝关注本公众号.并且我已经成功开通了流量主同时会赚一点点广告费,我打算每个月把这部分钱拿出来给大家买点书刊,算是给大家一点福利吧.大家想买什 ...
- Python 爬虫---(3)Urllib库使用介绍
1.Urllib库使用详解 Urllib是python内置的HTTP请求库 包括以下模块 urllib.request 请求模块 urllib.error 异常处理模块 urllib.parse ur ...
- 爬虫-1-基础和urllib
爬虫基础 一.爬虫介绍 什么是爬虫 爬虫:网络爬虫又称为网络蜘蛛,网络蚂蚁,网络机器人等,可以自动化浏览网络中的信息,当然浏览信息的时候需要按照我们的规定的规则进行,这些规则称之为网络爬虫算法,使用p ...
最新文章
- vb excel 整行删除_Excel中常用的批量处理都不掌握,那就真的Out了
- centos删除文件夹_等保测评主机安全之centos密码长度
- mbsfn子帧_区分小区内子帧状态的方法、装置以及系统_2008100004878_说明书_专利查询_专利网_钻瓜专利网...
- 你担心大家会滥用的全局变量,大家(包括你自己)一定会滥用
- [ruby on rails] 跟我学之(7)创建数据
- 【Linux 驱动】第十章 中断处理
- 【图像处理】二维付立叶变换和滤波 (Two-Dimensional Fourier Transform and Filtering)
- MFC CListCtrl 将一个列表的选中项添加到另一个列表
- “牙医”教你用450行Go代码自制编程语言 | Gopher Daily (2021.01.15) ʕ◔ϖ◔ʔ
- wbs简单介绍以及相关模板截图
- 计算几何——判断点是否在多边形内
- 批量删除多个 PPT 空白页
- JAVA_OPTS参数说明与配置
- 结构化分析与设计方法
- 前端实现省市县三级联动的功能
- NOIP2017普及组复赛——T4跳房子
- 通过className属性给一个元素追加新class(addClass函数)
- 实时视频通话超低延迟架构的思考与实践
- GF系列卫星分辨率介绍
- 摇一摇周边:微信是这样连接线下商户的