标签:python 下载器 多进程

因为爬虫要用到下载器,但是直接用urllib下载很慢,所以找了很久终于找到一个让我欣喜的下载器。他能够断点续传分片下载,极大提高下载速度。

#! /usr/bin/env python

# encoding=utf-8

from __future__ import unicode_literals

from multiprocessing.dummy import Pool as ThreadPool

import threading

import os

import sys

import cPickle

from collections import namedtuple

import urllib2

from urlparse import urlsplit

import time

# global lock

lock = threading.Lock()

# default parameters

defaults = dict(

thread_count=10,

buffer_size=500 * 1024,

block_size=1000 * 1024)

def progress(percent, width=50):

print "%s %d%%\r" % (('%%-%ds' % width) % (width * percent / 100 * '='), percent),

if percent >= 100:

print

sys.stdout.flush()

def write_data(filepath, data):

with open(filepath, 'wb') as output:

cPickle.dump(data, output)

def read_data(filepath):

with open(filepath, 'rb') as output:

return cPickle.load(output)

FileInfo = namedtuple('FileInfo', 'url name size lastmodified')

def get_file_info(url):

class HeadRequest(urllib2.Request):

def get_method(self):

return "HEAD"

res = urllib2.urlopen(HeadRequest(url))

res.read()

headers = dict(res.headers)

size = int(headers.get('content-length', 0))

lastmodified = headers.get('last-modified', '')

name = None

if headers.has_key('content-disposition'):

name = headers['content-disposition'].split('filename=')[1]

if name[0] == '"' or name[0] == "'":

name = name[1:-1]

else:

name = os.path.basename(urlsplit(url)[2])

return FileInfo(url, name, size, lastmodified)

def download(url, output,

thread_count=defaults['thread_count'],

buffer_size=defaults['buffer_size'],

block_size=defaults['block_size']):

# get latest file info

file_info = get_file_info(url)

# init path

if output is None:

output = file_info.name

workpath = '%s.ing' % output

infopath = '%s.inf' % output

# split file to blocks. every block is a array [start, offset, end],

# then each greenlet download filepart according to a block, and

# update the block' offset.

blocks = []

if os.path.exists(infopath):

# load blocks

_x, blocks = read_data(infopath)

if (_x.url != url or

_x.name != file_info.name or

_x.lastmodified != file_info.lastmodified):

blocks = []

if len(blocks) == 0:

# set blocks

if block_size > file_info.size:

blocks = [[0, 0, file_info.size]]

else:

block_count, remain = divmod(file_info.size, block_size)

blocks = [[i * block_size, i * block_size,

(i + 1) * block_size - 1] for i in range(block_count)]

blocks[-1][-1] += remain

# create new blank workpath

with open(workpath, 'wb') as fobj:

fobj.write('')

print 'Downloading %s' % url

# start monitor

threading.Thread(target=_monitor, args=(

infopath, file_info, blocks)).start()

# start downloading

with open(workpath, 'rb+') as fobj:

args = [(url, blocks[i], fobj, buffer_size)

for i in range(len(blocks)) if blocks[i][1] < blocks[i][2]]

if thread_count > len(args):

thread_count = len(args)

pool = ThreadPool(thread_count)

pool.map(_worker, args)

pool.close()

pool.join()

# rename workpath to output

if os.path.exists(output):

os.remove(output)

os.rename(workpath, output)

# delete infopath

if os.path.exists(infopath):

os.remove(infopath)

assert all([block[1] >= block[2] for block in blocks]) is True

def _worker((url, block, fobj, buffer_size)):

req = urllib2.Request(url)

req.headers['Range'] = 'bytes=%s-%s' % (block[1], block[2])

res = urllib2.urlopen(req)

while 1:

chunk = res.read(buffer_size)

if not chunk:

break

with lock:

fobj.seek(block[1])

fobj.write(chunk)

block[1] += len(chunk)

def _monitor(infopath, file_info, blocks):

while 1:

with lock:

percent = sum([block[1] - block[0]

for block in blocks]) * 100 / file_info.size

progress(percent)

if percent >= 100:

break

write_data(infopath, (file_info, blocks))

time.sleep(2)

if __name__ == '__main__':

import argparse

parser = argparse.ArgumentParser(description='多线程文件下载器.')

parser.add_argument('url', type=str, help='下载连接')

parser.add_argument('-o', type=str, default=None,

dest="output", help='输出文件')

parser.add_argument(

'-t', type=int, default=defaults['thread_count'], dest="thread_count", help='下载的线程数量')

parser.add_argument(

'-b', type=int, default=defaults['buffer_size'], dest="buffer_size", help='缓存大小')

parser.add_argument(

'-s', type=int, default=defaults['block_size'], dest="block_size", help='字区大小')

argv = sys.argv[1:]

if len(argv) == 0:

argv = ['https://eyes.nasa.gov/eyesproduct/EYES/os/win']

args = parser.parse_args(argv)

start_time = time.time()

download(args.url, args.output, args.thread_count,

args.buffer_size, args.block_size)

print '下载时间: %ds' % int(time.time() - start_time)

python 断点下载_python多进程断点续传分片下载器相关推荐

  1. python编写下载器可暂停_python多进程断点续传分片下载器

    python多进程断点续传分片下载器 标签:python 下载器 多进程 因为爬虫要用到下载器,但是直接用urllib下载很慢,所以找了很久终于找到一个让我欣喜的下载器.他能够断点续传分片下载,极大提 ...

  2. python多进程断点续传分片下载器

    python多进程断点续传分片下载器 标签:python 下载器 多进程 因为爬虫要用到下载器,但是直接用urllib下载很慢,所以找了很久终于找到一个让我欣喜的下载器.他能够断点续传分片下载,极大提 ...

  3. m3u8解析_Python多进程教你下载M3U8加密或非加密视频!

    m3u8 是一种基于 HTTP Live Streaming 文件视频格式,它主要是存放整个视频的基本信息和分片(Segment)组成. 相信大家都看过m3u8格式文件的内容,我们直来对比一下有什么不 ...

  4. python主题壁纸下载_Python开发专属壁纸下载与轮换程序

    本人对于壁纸一直偏佛系,不爱特意去找一堆壁纸.因此用Python简单地搞了一个自动下载壁纸,定时随机轮换的功能来自娱自乐,顺便分享给大家. 原文链接:https://www.codernice.top ...

  5. python爬虫程序下载_Python爬虫之多线程下载程序类电子书

    近段时间,笔者发现一个神奇的网站:http://www.allitebooks.com/ ,该网站提供了大量免费的编程方面的电子书,是技术爱好者们的福音.其页面如下: ![](https://imag ...

  6. python专属壁纸_Python开发专属壁纸下载与轮换程序

    本人对于壁纸一直偏佛系,不爱特意去找一堆壁纸.因此用Python简单地搞了一个自动下载壁纸,定时随机轮换的功能来自娱自乐,顺便分享给大家. 原文链接:查看 准备 下载安装Python3 官网下载即可, ...

  7. python通过下载链接下载_Python根据URL地址下载文件——wget

    爬虫过程中经常会需要下载一些资源,通常我们会使用request进行下载,方法大致如下 import requests # 请求链接,有防爬的要加headers,代理ip地址 img = request ...

  8. pd.fjs分片下载的介绍2:分片下载demo

    上一个章节,简要说了以下分片下载的几个特性.今天主要用示例说明一下pdf.js分片下载. 服务器环境: php7.2 nginx 1.14 ubuntu 18.04 测试浏览器:谷歌浏览器 70.0. ...

  9. PDF.js 分片下载的介绍2:分片下载demo

    上一个章节,简要说了以下分片下载的几个特性.今天主要用示例说明一下pdf.js分片下载. 服务器环境: php7.2 nginx 1.14 ubuntu 18.04 测试浏览器:谷歌浏览器 70.0. ...

最新文章

  1. 阿里云弹性公网IP(EIP)的使用限制
  2. “编程能力差!90%输在这点上”谷歌AI专家:其实都是瞎努力!
  3. Scala中心基金会成立
  4. Angular4 组件通讯方法大全
  5. JavaScript 中的闭包和作用域链(读书笔记)
  6. 算法设计与分析——回溯法——符号三角形问题
  7. 如何使用JavaScript删除CSS属性?
  8. Linux性能优化-磁盘RAID
  9. C#中XML的基本操作
  10. 第二次作业+105032014149
  11. BAT脚本一键更新提交代码到线上
  12. java运算符重载_为什么Java不支持运算符重载?
  13. selenium web的自动化测试工具
  14. 【笔记】《Java核心技术卷1(第11版)》-第1章-Java程序设计概述
  15. Multisim12\Multisim14访问主数据库失败的解决方法
  16. 一、求100以内的素数
  17. Ubuntu 16 永久修改ulimit中的max file open限制
  18. .less文件转换成.css文件,除法没有运算结果,没有换成小数表示结果
  19. oracle虚拟机内鼠标消失,鼠标消失在VirtualBox中
  20. 《Python编程快速上手——让繁琐的工作自动化》读书笔记4

热门文章

  1. spring4-3-AOP-面向切面编程
  2. 一道异常处理执行顺序面试题的简单分析
  3. C#中new和override区别
  4. C#里调用带输出参数的存储过程
  5. MySQL高性能优化规范建议
  6. LeetCode 295. 数据流的中位数 Hard难度
  7. 实探全球第九大超算中心:温水冷却节能30% 正寻求新突破
  8. 13条注释 tips
  9. JAVA程序禁用Hbase中的表_HBase禁用表
  10. java8 stream中的惰性求值