在开发过程中,收到这样一个问题反馈,在网站上传 100 MB 以上的文件经常失败,重试也要等老半天,这就难为需要上传大规格文件的用户了。那么应该怎么做才能快速上传,就算失败了再次发送也能从上次中断的地方继续上传呢?下文为你揭晓答案~

温馨提示:配合 Demo 源码一起阅读效果更佳

整体思路

第一步是结合项目背景,调研比较优化的解决方案。

文件上传失败是老生常谈的问题,常用方案是将一个大文件切片成多个小文件,并行请求接口进行上传,所有请求得到响应后,在服务器端合并所有的分片文件。当分片上传失败,可以在重新上传时进行判断,只上传上次失败的部分,减少用户的等待时间,缓解服务器压力。这就是分片上传文件。

大文件上传

那么如何实现大文件分片上传呢?

流程图如下:

分为以下步骤实现:

1. 文件 MD5 加密

MD5 是文件的唯一标识,可以利用文件的 MD5 查询文件的上传状态。

根据文件的修改时间、文件名称、最后修改时间等信息,通过 spark-md5 生成文件的 MD5。需要注意的是,大规格文件需要分片读取文件,将读取的文件内容添加到 spark-md5 的 hash 计算中,直到文件读取完毕,最后返回最终的 hash 码到 callback 回调函数里面。这里可以根据需要添加文件读取的进度条。

实现方法如下:

// 修改时间+文件名称+最后修改时间-->MD5

md5File (file) {

return new Promise((resolve, reject) => {

let blobSlice =

File.prototype.slice ||

File.prototype.mozSlice ||

File.prototype.webkitSlice

let chunkSize = file.size / 100

let chunks = 100

let currentChunk = 0

let spark = new SparkMD5.ArrayBuffer()

let fileReader = new FileReader()

fileReader.onload = function (e) {

console.log('read chunk nr', currentChunk + 1, 'of', chunks)

spark.append(e.target.result) // Append array buffer

currentChunk++

if (currentChunk < chunks) {

loadNext()

} else {

let cur = +new Date()

console.log('finished loading')

// alert(spark.end() + '---' + (cur - pre)); // Compute hash

let result = spark.end()

resolve(result)

}

}

fileReader.onerror = function (err) {

console.warn('oops, something went wrong.')

reject(err)

}

function loadNext () {

let start = currentChunk * chunkSize

let end =

start + chunkSize >= file.size ? file.size : start + chunkSize

fileReader.readAsArrayBuffer(blobSlice.call(file, start, end))

}

loadNext()

})

}

复制代码

2. 查询文件状态

前端得到文件的 MD5 后,从后台查询是否存在名称为 MD5 的文件夹,如果存在,列出文件夹下所有文件,得到已上传的切片列表,如果不存在,则已上传的切片列表为空。

// 校验文件的MD5

checkFileMD5 (file, fileName, fileMd5Value, onError) {

const fileSize = file.size

const { chunkSize, uploadProgress } = this

this.chunks = Math.ceil(fileSize / chunkSize)

return new Promise(async (resolve, reject) => {

const params = {

fileName: fileName,

fileMd5Value: fileMd5Value,

}

const { ok, data } = await services.checkFile(params)

if (ok) {

this.hasUploaded = data.chunkList.length

uploadProgress(file)

resolve(data)

} else {

reject(ok)

onError()

}

})

}

复制代码

3. 文件分片

文件上传优化的核心就是文件分片,Blob 对象中的 slice 方法可以对文件进行切割,File 对象是继承 Blob 对象的,因此 File 对象也有 slice 方法。

定义每一个分片文件的大小变量为 chunkSize,通过文件大小 FileSize 和分片大小 chunkSize 得到分片数量 chunks,使用 for 循环和 file.slice() 方法对文件进行分片,序号为 0 - n,和已上传的切片列表做比对,得到所有未上传的分片,push 到请求列表 requestList。

async checkAndUploadChunk (file, fileMd5Value, chunkList) {

let { chunks, upload } = this

const requestList = []

for (let i = 0; i < chunks; i++) {

let exit = chunkList.indexOf(i + '') > -1

// 如果已经存在, 则不用再上传当前块

if (!exit) {

requestList.push(upload(i, fileMd5Value, file))

}

}

console.log({ requestList })

const result =

requestList.length > 0

? await Promise.all(requestList)

.then(result => {

console.log({ result })

return result.every(i => i.ok)

})

.catch(err => {

return err

})

: true

console.log({ result })

return result === true

}

复制代码

4. 上传分片

调用 Promise.all 并发上传所有的切片,将切片序号、切片文件、文件 MD5 传给后台。

后台接收到上传请求后,首先查看名称为文件 MD5 的文件夹是否存在,不存在则创建文件夹,然后通过 fs-extra 的 rename 方法,将切片从临时路径移动切片文件夹中,结果如下:

当全部分片上传成功,通知服务端进行合并,当有一个分片上传失败时,提示“上传失败”。在重新上传时,通过文件 MD5 得到文件的上传状态,当服务器已经有该 MD5 对应的切片时,代表该切片已经上传过,无需再次上传,当服务器找不到该 MD5 对应的切片时,代表该切片需要上传,用户只需上传这部分切片,就可以完整上传整个文件,这就是文件的断点续传。

// 上传chunk

upload (i, fileMd5Value, file) {

const { uploadProgress, chunks } = this

return new Promise((resolve, reject) => {

let { chunkSize } = this

// 构造一个表单,FormData是HTML5新增的

let end =

(i + 1) * chunkSize >= file.size ? file.size : (i + 1) * chunkSize

let form = new FormData()

form.append('data', file.slice(i * chunkSize, end)) // file对象的slice方法用于切出文件的一部分

form.append('total', chunks) // 总片数

form.append('index', i) // 当前是第几片

form.append('fileMd5Value', fileMd5Value)

services

.uploadLarge(form)

.then(data => {

if (data.ok) {

this.hasUploaded++

uploadProgress(file)

}

console.log({ data })

resolve(data)

})

.catch(err => {

reject(err)

})

})

}

复制代码

5. 上传进度

虽然分片批量上传比大文件单次上传会快很多,也还是有一段加载时间,这时应该加上上传进度的提示,实时显示文件上传进度。

原生 Javascript 的 XMLHttpRequest 有提供 progress 事件,这个事件会返回文件已上传的大小和总大小。项目使用 axios 对 ajax 进行封装,可以在 config 中增加 onUploadProgress 方法,监听文件上传进度。

const config = {

onUploadProgress: progressEvent => {

var complete = (progressEvent.loaded / progressEvent.total * 100 | 0) + '%'

}

}

services.uploadChunk(form, config)

复制代码

6. 合并分片

上传完所有文件分片后,前端主动通知服务端进行合并,服务端接受到这个请求时主动合并切片,通过文件 MD5 在服务器的文件上传路径中找到同名文件夹。从上文可知,文件分片是按照分片序号命名的,而分片上传接口是异步的,无法保证服务器接收到的切片是按照请求顺序拼接。所以应该在合并文件夹里的分片文件前,根据文件名进行排序,然后再通过 concat-files 合并分片文件,得到用户上传的文件。至此大文件上传就完成了。

Node 端代码:

// 合并文件

exports.merge = {

validate: {

query: {

fileName: Joi.string()

.trim()

.required()

.description('文件名称'),

md5: Joi.string()

.trim()

.required()

.description('文件md5'),

size: Joi.string()

.trim()

.required()

.description('文件大小'),

},

},

permission: {

roles: ['user'],

},

async handler (ctx) {

const { fileName, md5, size } = ctx.request.query

let { name, base: filename, ext } = path.parse(fileName)

const newFileName = randomFilename(name, ext)

await mergeFiles(path.join(uploadDir, md5), uploadDir, newFileName, size)

.then(async () => {

const file = {

key: newFileName,

name: filename,

mime_type: mime.getType(`${uploadDir}/${newFileName}`),

ext,

path: `${uploadDir}/${newFileName}`,

provider: 'oss',

size,

owner: ctx.state.user.id,

}

const key = encodeURIComponent(file.key)

.replace(/%/g, '')

.slice(-100)

file.url = await uploadLocalFileToOss(file.path, key)

file.url = getFileUrl(file)

const f = await File.create(omit(file, 'path'))

const files = []

files.push(f)

ctx.body = invokeMap(files, 'toJSON')

})

.catch(() => {

throw Boom.badData('大文件分片合并失败,请稍候重试~')

})

},

}

复制代码

总结

本文讲述了大规格文件上传优化的一些做法,总结为以下 4 点:

Blob.slice 将文件切片,并发上传多个切片,所有切片上传后告知服务器合并,实现大文件分片上传;

原生 XMLHttpRequest 的 onprogress 对切片上传进度的监听,实时获取文件上传进度;

spark-md5 根据文件内容算出文件 MD5,得到文件唯一标识,与文件上传状态绑定;

分片上传前通过文件 MD5 查询已上传切片列表,上传时只上传未上传过的切片,实现断点续传。

参照 Demo 源码 可快速上手上述功能,希望本文能对你有所帮助,感谢阅读 ❤️

欢迎关注凹凸实验室博客:aotu.io

或者关注凹凸实验室公众号(AOTULabs),不定时推送文章:

关于找一找教程网

本站文章仅代表作者观点,不代表本站立场,所有文章非营利性免费分享。

本站提供了软件编程、网站开发技术、服务器运维、人工智能等等IT技术文章,希望广大程序员努力学习,让我们用科技改变世界。

[大规格文件的上传优化]http://www.zyiz.net/tech/detail-134636.html

java文件上传最优方案_大规格文件的上传优化相关推荐

  1. element文件上传有文件但是后台接收为空_程序员提高篇:大规格文件(G)是如何做分片优化的?...

    作者:凹凸实验室 链接:https://juejin.im/post/5ebb4346e51d451ef53793ad 整体思路 第一步是结合项目背景,调研比较优化的解决方案. 文件上传失败是老生常谈 ...

  2. 大规格文件的上传优化(实用篇)

    在开发过程中,收到这样一个问题反馈,在网站上传 100 MB 以上的文件经常失败,重试也要等老半天,这就难为需要上传大规格文件的用户了.那么应该怎么做才能快速上传,就算失败了再次发送也能从上次中断的地 ...

  3. 上拉电阻的作用原理_单片机P0口以及上拉电阻

    (一) 在我们讲解P0端口之前我们首先梳理一下各个端口有什么不同之处: P0口有三个功能: 1.外部扩展存储器时,当做数据(Data)总线(如图1中的D0~D7为数据总线接口) 2.外部扩展存储器时, ...

  4. c 服务器文件是存在,客户端服务器在较大的文件的c文件传输问题

    下面的代码适用于最后一个数据包包含的数据少于最大长度的较小文件,该功能通过显示接收到的文件正确退出. 如果传输的文件的最后一个数据包或缓冲区包含与我的情况下接收缓冲区阵列512的大小相同的确切数量.然 ...

  5. C语言文件日期排序,C语言产生一个大txt文件,并进行排序

    产生了一个十万行的txt文件,每一行都是一个0-512之间的随机数,并对这个文件进行排序,生成一个递增排序的文件: #define _CRT_SECURE_NO_WARNINGS #include # ...

  6. android 大文件加密,如何在android中加密大视频文件

    我有一个应用程序,我正在使用该代码来解密已加密的文件.文件位置是"/mnt/sdcard/myfolder/test.mp4". test.mp4文件大小约为20MB.如何在and ...

  7. Java好还是网优好_大神告诉你|Java好还是Python好?

    在进入主题之前,小智先分享几条大神的人生警句.醒世明言: 初学者才争论语言,我们只看心情. 还有: 选择入门语言最重要的是 "三观"相似 "臭味"相投 以及大家 ...

  8. java h5 上拉加载更多_移动端H5页面上拉加载更多功能实现(二)

    之前已经写过一篇关于上拉加载更多的文章,那个主要是根据滚动实现分页向后台发起请求实现.这次实现方式为后台返回所有需要加载的数据,前端这边做视觉上的分页效果.实现原理也是根据滚动距离触发加载更多的条件. ...

  9. 使用js在桌面上写一个倒计时器_论一个倒计时器的性能优化之路

    原文发表于 2018.05.25,搬运自个人博客. 引子 回顾这半年,扛需求能力越来越强,业务代码也是越写越多.但稍一认真看看这些当时为了满足快速上线所码的东西,问题其实还是不少.这次就从一个简单的计 ...

最新文章

  1. 数据公钥加密和认证中的私钥公钥
  2. C中memcpy使用注意事项
  3. 这位教授2 年一篇 Science,再获教科书级的重大发现
  4. jq取第一个子元素为select_Java修行第036天---MySQL中的子查询,分页语句,三大范式...
  5. Jmeter中的Bean shell
  6. SAP 电商云 Spartacus UI Cart 页面的 CMS 布局
  7. Web GIS多种方式发布动态地图服务及显示(1)
  8. 图论及其应用(基础知识)(1)(数学建模基础速成)
  9. C#制作单机版桌面软件(带数据库)
  10. 微信发送文件卡死或黑屏
  11. java 求一二次方程的根_java求一元二次方程的根
  12. android service开启前台通知
  13. .NET项目使用EF+Migration
  14. 范宝兴:幻方与类自然数幻方(上)「片桐善直8阶间隔幻方」「同心6阶/8阶/10阶」...
  15. 李宏毅(机器学习)机器学习概述+线性回归案例分析
  16. 常用的几款交互设计软件
  17. 20篇高质量程序人生文章分享,做开发不仅仅只有代码
  18. 在线问答“三重门”:知识、营销与服务直达
  19. 大数据算法系列10:字符串检验算法
  20. 【流媒体技术】流媒体(1)使用nginx搭建流媒体服务器

热门文章

  1. DELL T5820 Ubuntu16.04和Win10双系统安装中遇到的问题
  2. 大厂Java岗面试原题复盘,双非2年经验成功内推进入阿里
  3. Microsoft Visual Studio2010c语言程序太快没看到怎么办
  4. 阿里云服务器安装配置nginx
  5. E420-A86 wifi开启成功但HTC G22正在获取地址...
  6. 上海东华大学计算机与科学技术,上海东华大学
  7. 关于服装ERP,你想知道的都在这里了
  8. STM32F103+DHT11模块+DS18B20模块 显示实时温湿度并高温高湿报警
  9. iOS-iOS 11图片保存相册权限 NSPhotoLibraryAddUsageDescription
  10. python函数递归年龄,python之函数递归