Python爬取文件的11种方式
Python下载文件的11种方式
本文将讲述使用不同的Python模块从web下载文件。说是下载其实就是爬虫啦!!!
废话不多开始正题
使用Requests
你可以使用requests模块从一个URL下载文件。
import requests
url='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=1618309945,4014036594&fm=26&gp=0.jpg'
myfile=requests.get(url)
open('C:\Users\pytho\Desktop\a.png','wb').write(myfile.content)
你只需使用requests模块的get方法获取URL,并将结果存储到一个名为“myfile”的变量中。然后,将这个变量的内容写入文件。
使用wget
你还可以使用Python的wget模块从一个URL下载文件。你可以使用pip按以下命令安装wget模块:
pip install wget
我们将使用它下载图像。
import wget
url='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=1618309945,4014036594&fm=26&gp=0.jpg'
wget.download(url,'C:\Users\pytho\Desktop\a.png',)
在这段代码中,URL和路径(图像将存储在其中)被传递给wget模块的download方法。
下载重定向的文件
在本节中,URL会被重定向到另一个带有一个.pdf文件的URL。
要下载这个pdf文件,请使用以下代码:
imoprt requests
url='https://readthedocs.org/projects/python-guide/downloads/pdf/latest/'
myfile=requests.get(url,allow_redirects=True)
open('C:\Users\pytho\Desktop\a.pdf','wb').write(myfile.content)
在这段代码中,我们第一步指定的是URL。然后,我们使用request模块的get方法来获取该URL。在get方法中,我们将allow_redirects设置为True,这将允许URL中的重定向,并且重定向后的内容将被分配给变量myfile。
最后,我们打开一个文件来写入获取的内容。
分块下载大文件(可能有点问题)
考虑下面的代码:
import requestsurl='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=1618309945,4014036594&fm=26&gp=0.jpg'
myfile=requests.get(url,stream=True)
open('C:\Users\pytho\Desktop\a.pdf','wb').write(myfile.content,1024)
首先,我们像以前一样使用requests模块的get方法,但是这一次,我们将把stream属性设置为True。
接着,我们在当前工作目录中创建一个名为PythonBook.pdf的文件,并打开它进行写入。
然后,我们指定每次要下载的块大小。我们已经将其设置为1024字节,接着遍历每个块,并在文件中写入这些块,直到块结束。
下载多个文件(并行/批量下载)
要同时下载多个文件,请导入以下模块:
import os,requests
from time import time
from multiprocessing.pool import ThreadPool
我们导入了os和time模块来检查下载文件需要多少时间。ThreadPool模块允许你使用池运行多个线程或进程。
让我们创建一个简单的函数,将响应分块发送到一个文件:
def url_response(url):path,url='C:\Users\pytho\Desktop\a.pdf',urlr=requests.get(url,stream=True)with open(path,'wb')as f:for ch in f:f.write(ch)
这个URL是一个二维数组,它指定了你要下载的页面的路径和URL。
urls=[("Event1","https://www.python.org/events/python-events/805/"),
("Event2","https://www.python.org/events/python-events/801/"),
("Event3","https://www.python.org/events/python-events/802/")
("Event4","https://www.python.org/events/python-events/803/")
("Event5","https://www.python.org/events/python-events/804/")]
就像在前一节中所做的那样,我们将这个URL传递给requests.get。最后,我们打开文件(URL中指定的路径)并写入页面内容。
现在,我们可以分别为每个URL调用这个函数,我们也可以同时为所有URL调用这个函数。让我们在for循环中分别为每个URL调用这个函数,注意计时器:
start=time()
for x in urls:url_response(x)
print(f"time to download:{time()-start}")
现在,使用以下代码行替换for循环:
ThreadPool(9).imap_unordered(url_response,urls)
运行该脚本。
使用进度条进行下载
考虑以下代码:
import requests
from clint.textui import progress
url='http://dol.dr-chuck.com/pythonlearn/EN_us/pythonlearn.pdf'
r=requests.get(url.stream=True)
with open('learnpython.pdf','wb')as f:total_length=int(r.headers.get('content-length'))for ch in progress.bar(r.iter_content(chunk_size=2391975),expected_size=(total_length/1024)+1):if ch:f.write(ch)
在这段代码中,我们首先导入了requests模块,然后,我们从clint.textui导入了进度组件。唯一的区别是在for循环中。在将内容写入文件时,我们使用了进度条模块的bar方法。
使用urllib下载网页
在本节中,我们将使用urllib下载一个网页。
urllib库是Python的标准库,因此你不需要安装它。
以下代码行可以轻松地下载一个网页:
urllib.request.urlretrieve('url','path')
在这里指定你想将文件保存为什么以及你想将它存储在哪里的URL,
在这段代码中,我们使用了urlretrieve方法并传递了文件的URL,以及保存文件的路径。文件扩展名将是.html。
通过代理下载
如果你需要使用代理下载你的文件,你可以使用urllib模块的ProxyHandler。请看以下代码:
import urllib.requestmyProxy=urllib.request.ProxyHandler({'http':'127.0.0.2'})
openProxy=urllib.request.build_opener(myProxy)
urllib.request.urlretrieve('https//www.python.org/')
在这段代码中,我们创建了代理对象,并通过调用urllib的build_opener方法来打开该代理,并传入该代理对象。然后,我们创建请求来获取页面。
此外,你还可以按照官方文档的介绍来使用requests模块:
import requests
myProxy={'http':'http://127.0.0.2:3001'}
requests.get("https://www.python.org/",proxies=myProxy)
你只需要导入requests模块并创建你的代理对象。然后,你就可以获取文件了。
使用urllib3
urllib3是urllib模块的改进版本。你可以使用pip下载并安装它:
pip install urllib3
我们将通过使用urllib3来获取一个网页并将它存储在一个文本文件中。
在处理文件时,我们使用了shutil模块。
import urllib3,shutil
现在,我们像这样来初始化URL字符串变量:
url='https://www.python.org/'
然后,我们使用了urllib3的PoolManager ,它会跟踪必要的连接池。
c=urllib3.PoolManager()
创建一个文件
filename='text.txt'
最后,我们发送一个GET请求来获取该URL并打开一个文件,接着将响应写入该文件:
with c.request('GET',url,preload_content=False)as f,open(filename,'wb')as f2:shutil.copyfileobj(f,f2)
使用Boto3从S3下载文件
要从Amazon S3下载文件,你可以使用Python boto3模块。
在开始之前,你需要使用pip安装awscli模块:
pip install awscli
对于AWS配置,请运行以下命令:
aws configure
现在,按以下命令输入你的详细信息:
AWS Access key ID [None]:(The access key)
AWS Secret Access Key [None]:(Secret access key)
Default region name [None]:(Region)
Default output format [None]:(Json)
要从Amazon S3下载文件,你需要导入boto3和botocore。Boto3是一个Amazon SDK,它允许Python访问Amazon web服务(如S3)。Botocore提供了与Amazon web服务进行交互的命令行服务。
Botocore自带了awscli。要安装boto3,请运行以下命令:
pip install boto3
现在,导入这两个模块:
import boto3,botocore
在从Amazon下载文件时,我们需要三个参数:
Bucket名称
你需要下载的文件名称
文件下载之后的名称
初始化变量:
bucket='bucketName'
file_name='filename'
download_file='downloadfilename'
现在,我们初始化一个变量来使用会话的资源。为此,我们将调用boto3的resource()方法并传入服务,即s3:
service=boto3.resource('s3')
最后,使用download_file方法下载文件并传入变量:
service.Bucket(bucket).download_file(file_name,downloaded_file)
使用asyncio
asyncio模块主要用于处理系统事件。它围绕一个事件循环进行工作,该事件循环会等待事件发生,然后对该事件作出反应。这个反应可以是调用另一个函数。这个过程称为事件处理。asyncio模块使用协同程序进行事件处理。
要使用asyncio事件处理和协同功能,我们将导入asyncio模块:
import asyncio
现在,像这样定义asyncio协同方法:
async def coroutine():await my_func()
关键字async表示这是一个原生asyncio协同程序。在协同程序的内部,我们有一个await关键字,它会返回一个特定的值。我们也可以使用return关键字。
现在,让我们使用协同创建一段代码来从网站下载一个文件:
import os,urllib.request
async def coroutine(url):r=urllib.request.urlopen(url)filename='couroutine_downloads.txt'with open(filename,'wb')as f:for ch in r:f.write(ch)print_msg='Successfully Download'return print_msgasync def main_func(urls_to_download):co=[coroutine(url) for url in urls_to_download]download,downloading=await asyncio.wait(co)for i in downloaded:print(i.result())
urls_to_download=['https://www.python.org/events/python-events/801/',
'https://www.python.org/events/python-events/802/',
'https://www.python.org/events/python-events/803/',
'https://www.python.org/events/python-events/804/']
eventLoop=asyncio.get_event_loop()
eventLoop.run_until_complete(main_func(urls_to_download))
在这段代码中,我们创建了一个异步协同函数,它会下载我们的文件并返回一条消息。
然后,我们使用另一个异步协同程序调用main_func,它会等待URL并将所有URL组成一个队列。asyncio的wait函数会等待协同程序完成。
现在,为了启动协同程序,我们必须使用asyncio的get_event_loop()方法将协同程序放入事件循环中,最后,我们使用asyncio的run_until_complete()方法执行该事件循环。
点击进入英文原文
Python爬取文件的11种方式相关推荐
- python 下载文件-Python下载文件的11种方式
原标题:Python下载文件的11种方式 在本教程中,你将学习如何使用不同的Python模块从web下载文件.此外,你将下载常规文件.web页面.Amazon S3和其他资源. 最后,你将学习如何克服 ...
- 用Python读取CSV文件的5种方式
典型的数据集stocks.csv: 一个股票的数据集,其实就是常见的表格数据.有股票代码,价格,日期,时间,价格变动和成交量.这个数据集其实就是一个表格数据,有自己的头部和身体. 第一招:简单的读取 ...
- django + python上传文件的两种方式
突然心血来潮,研究了下django+python上传文件的两种方式. 第一:直接采用文件读写的方式上传 1. settings.py文件中设置文件的存放路径和文件读取路径 MEDIA_ROOT = o ...
- python爬取文件归类_python爬取各类文档方法归类汇总
HTML文档是互联网上的主要文档类型,但还存在如TXT.WORD.excel.PDF.csv等多种类型的文档.网络爬虫不仅需要能够抓取HTML中的敏感信息,也需要有抓取其他类型文档的能力.下面简要记录 ...
- Python处理mat文件的三种方式小结
文章目录 处理mat文件的三种方式 scipy h5py mat73 python操作.mat文件 python读取.mat格式 mat转图片 处理mat文件的三种方式 读书的时候,处理数据都是采用m ...
- 使用Python读取本地文件的4种方式
Python读取文件的4种方式,包括read().read(字节数).readlines().readline()方式. 1.read()方式,一次读取所有,返回str file0 = open(&q ...
- python 网页爬虫nike_python网络爬虫-爬取网页的三种方式(1)
0.前言 0.1 抓取网页 本文将举例说明抓取网页数据的三种方式:正则表达式.BeautifulSoup.lxml. 获取网页内容所用代码详情请参照Python网络爬虫-你的第一个爬虫.利用该代码获取 ...
- python生成excel文件的三种方式
在我们做平常工作中都会遇到操作excel,那么今天写一篇,如何通过python操作excel.当然python操作excel的库有很多,比如pandas,xlwt/xlrd,openpyxl等,每个库 ...
- Python 下载大文件,哪种方式速度更快
点击上方"菜学Python",选择"星标"公众号 超级无敌干货,第一时间送达!!! 大家好,我是菜鸟哥. 通常,我们都会用 requests 库去下载,这个库用 ...
- Python下载文件的11种方式
译者:天天向上 英文原文: https://dzone.com/articles/simple-examples-of-downloading-files-using-python 在本教程中, ...
最新文章
- AI人才抢夺“生猛”: 应届博士年薪涨到80万元
- 工厂方法源码解析(jdk+logback)
- 小波相干wtc matlab,实现时间序列的小波相干性分析,并画出图谱
- (7)关于margin的一些想法2.0
- 一文教你从零开始设计并实现一个Java扫雷游戏
- Java运算符及录入
- oracle字符查出一位
- android美颜功能吗,Android美颜sdk接入之前需要知道这些知识吗
- Linux vi中查找字符内容的方法
- Javascript FormData实例
- jfinal 模板引擎
- 大数据实效_普洱市以“大数据”思维全面提升新时代干部管理监督实效
- 签到系统、评价系统、后台审核系统前后端接口实现总结
- plsql去除字段中空格_PLSQL 数据中去掉 字段有空格 回车 换行
- 嵌入式硬件从接杜邦线起-杜邦头接线实操①
- 内涵社区APP,一款集内涵段子,百思不得其姐,煎蛋于一身的搞笑社区
- 获取当前的时间是第几周
- Matlab扫雷记录01-matlab中获得向量非零元素个数
- 告白气球,这个情人节你值得拥有!
- 华为设备如何查看风扇的序列号?
热门文章
- 从零开始SpringCloud Alibaba实战(47)——阿里开发手册泰山版学习笔记一 命名风格
- APICloud AVM框架列表组件list-view的使用、flex布局教程
- JAVA101本土精选,Java101系列文章
- 2018,人生是一条蛇,它咬着自己的尾巴
- 什么方法可以显著提高程序员工作效率
- scrapy-redis 和 scrapy-splash结合 做分布式渲染爬取
- 计算机上没有端口DOT4,hp1010win7系统打印机装不了dot4端口没反应
- 新能源汽车营销业务入门学习
- c语言 结构体数组嵌套另一个结构体数组怎么初始化?,如何初始化结构体数组(内嵌结构体)...
- 422串口线互连的接法