一、业务背景
目前,vivo 平台有很多的业务都涉及到文件的下载:譬如说应用商店、游戏中心的 C 端用户下载更新应用或游戏;开放平台 B 端用户通过接口传包能力更新应用或游戏,需要从用户服务器上下载 apk、图片等文件,来完成用户的一次版本更新。
二、面临的挑战
针对上述 C 端用户,平台需要提供良好的下载环境,并且客户端需要兼容手机上用户的异常操作。
针对上述 B 端用户,平台亟需解决的问题就是从用户服务器上,拉取各种资源文件。
下载本身也是一个很复杂的问题,会涉及到网络问题、URL 重定向、超大文件、远程服务器文件变更、本地文件被删除等各种问题。这就需要我们保证平台具备快速下载文件的能力,同时兼具有有对异常场景的快速预警、容错处理的机制。
三、业务实现方案
基于前面提到的挑战,我们设计实现方案的时候,引用了行业常用的解决方法:断点下载。
针对 B 端用户场景,我们的处理方案入下图:
一、极速下载:通过分析文件大小,智能选择是否采用直接下载、单线程断点下载、多线程断点下载的方案;在使用多线程下载方案时,对"多线程"的使用,有两种方式:
在二者之间,我们选择了分组模式。
二、容错处理:在我们处理下载过程中,会遇到下载过程中网络不稳定、本地文件删除,远程文件变更等各种场景,这就需要我们能够兼容处理这些场景,失败后的任务,会有定时任务自动重新调起执行,也有后台管理系统界面,进行人工调起;
三、完整性校验:文件下载完成之后,需要对文件的最终一致性做校验,来确保文件的正确性;
四、异常预警:对于单次任务在尝试多次下载操作后仍然失败的情况,及时发起预警警告。
对于 C 端用户,业务方案相对更简单,因为文件服务器有 vivo 平台提供,网络环境相对可控,这里就不再赘述。接下来,我们将对文件下载里面的各种技术细节,进行详尽的剖析。
四、断点下载原理剖析
在进行原理分析前,先给大家普及一下,什么叫断点下载?相信大家都有过使用迅雷下载网络文件的经历吧,有没有注意到迅雷的下载任务栏里面,有一个“暂停”和“开始下载”按钮,会随着任务的当前状态显示不同的按钮。当你在下载一个 100M 的文件,下载到 50M 的时候,你点击了“暂停”,然后点击了“开始下载”,你会发现文件的下载竟然是从已经下载好的 50M 以后接着下载的。没错,这就是断点下载的真实应用。
4.1 HTTP 断点下载之秘密:Range
在讲解这个知识点前,大家有必要了解一下 http 的发展历史,HTTP(HyperText Transfer Protocol),超文本传输协议,是目前万维网(World Wide Web)的基础协议,已经经历四次的版本迭代:HTTP/0.9,HTTP/1.0,HTTP/1.1,HTTP/2.0。在 HTTP/1.1(RFC2616)协议中,定义了 HTTP1.1 标准所包含的所有头字段的相关语法和含义,其中就包括咱们要讲到的 Accept-Ranges,服务端支持范围请求(range requests)。有了这个重要的属性,才使得我们的断点下载成为可能。
基于 HTTP 不同版本之间的适配性,所以当我们在决定是否需要使用断点下载能力的时候,需要提前识别文件地址是否支持断点下载,怎么识别呢?方法很多,如果采用 curl 命令,命令为:curl -I url
CURL 验证是否支持范围请求:
如果服务端的响应信息里面包含了上图中 Accept-Ranges: bytes,这个属性,那么说该 URL 是支持范围请求的。如果 URL 返回消息体里面,Accept-Ranges: none 或者压根就没有 Accept-Ranges 这个属性,那么这个 URL 就是不支持范围请求,也就是不支持断点下载。
前面我们有看到,当使用 curl 命令获取 URL 的响应时,服务端返回了一大段文本信息,我们要实现文件的断点下载,就要从这些文本信息里面获取咱们断点下载需要的重要参数,有了这些参数后才能实现我们想要达到的效果。
4.2 HTTP 断点下载之 Range 语法说明
HTTP/1.1 中定义了一个 Range 的请求头,来指定请求实体的范围。它的范围取值是在 0 - Content-Length 之间,使用 - 分割。
4.2.1 单区间段范围请求
curl https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt -i -H "Range: bytes=0-100"
HTTP/1.1 206 Partial Content
Date: Sun, 20 Dec 2020 03:06:43 GMT
Content-Type: text/plain
Content-Length: 101
Connection: keep-alive
Server: AliyunOSS
x-oss-request-id: 5FDEBFC33243A938379F9410
Accept-Ranges: bytes
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
x-oss-object-type: Normal
x-oss-hash-crc64ecma: 5148872045942545519
x-oss-storage-class: Standard
Content-MD5: H/02vRsG62woevjXiEWICA==
x-oss-server-time: 2
Content-Range: bytes 0-100/740
X-Via: 1.1 PShnzssxek171:14 (Cdn Cache Server V2.0), 1.1 x71:12 (Cdn Cache Server V2.0), 1.1 PS-FOC-01z6n168:27 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdebfc3_PS-FOC-01z6n168_36519-1719
Access-Control-Allow-Origin: *
复制代码
4.2.2 多区间段范围请求
curl https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt -i -H "Range: bytes=0-100,200-300"
HTTP/1.1 206 Partial Content
Date: Sun, 20 Dec 2020 03:10:27 GMT
Content-Type: multipart/byteranges; boundary="Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A"
Content-Length: 506
Connection: keep-alive
Server: AliyunOSS
x-oss-request-id: 5FDEC030BDB66C33302A497E
Accept-Ranges: bytes
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
x-oss-object-type: Normal
x-oss-hash-crc64ecma: 5148872045942545519
x-oss-storage-class: Standard
Content-MD5: H/02vRsG62woevjXiEWICA==
x-oss-server-time: 2
Age: 1
X-Via: 1.1 xian23:7 (Cdn Cache Server V2.0), 1.1 PS-NTG-01KKN43:8 (Cdn Cache Server V2.0), 1.1 PS-FOC-01z6n168:27 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdec0a3_PS-FOC-01z6n168_36013-8986
Access-Control-Allow-Origin: *
--Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A
Content-Type: text/plain
Content-Range: bytes 0-100/740
--Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A
Content-Type: text/plain
Content-Range: bytes 200-300/740
复制代码
看完上述请求的响应结果信息,我们发现使用单范围区间请求时:Content-Type: text/plain,使用多范围区间请求时:Content-Type: multipart/byteranges; boundary="Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A",并且在尾部信息里面,携带了单个区间片段的 Content-Type 和 Content-Range。另外,不知道大家有没有发现一个很重要的信息,咱们的 HTTP 响应的状态并非我们预想中的 200,而是 HTTP/1.1 206 Partial Content,这个状态码非常重要,因为它标识着当次下载是否支持范围请求。
4.3 异常场景之资源变更
有一种场景,不知道大家有没有思考过,就是我们在下载一个大文件的时候,在未下载完成的时候,远程文件已经发生了变更,如果我们继续使用断点下载,会出现什么样的问题?结果当然是文件与远程文件不一致,会导致文件不可用。那么我们有什么办法能够在下载之前及时发现远程文件已经变更,并及时进行调整下载方案呢?解决方法其实上面有给大家提到,远程文件有没有发生变化,有两个标识:Etag 和 Last-Modified。二者任意一个属性均可反应出来,相比而言,Etag 会更精准些,原因如下:
Last-Modified 只能精确到秒级别,如果一秒内文件进行了多次修改,时间不会发生更新,但是文件的内容却已经发生了变更,此时 Etag 会及时更新识别到变更;
在不同的时间节点(超过 1 秒),如果文件从 A 状态改成 B 状态,然后又重 B 状态改回了 A 状态,时间会发生更新,但是相较于 A 状态文件内容,两次变更后并没又发生变化,此时 Etag 会变回最开始 A 状态值,有点类似咱们并发编程里面常说的 ABA 问题。
如果我们在进行范围请求下载的时候,带上了这两个属性中的一个或两个,就能监控远程文件发生了变化。如果发生了变化,那么区间范围请求的响应状态就不是 206 而是 200,说明它已经不支持该次请求的断点下载了。接下来我们验证一下 Etag 的验证信息,我们的测试文件:ETag: "1FFD36BD1B06EB6C287AF8D788458808",然后我们将最后一个数值 8 改成 9 进行验证,验证如下:
文件未变更:
curl -I --header 'If-None-Match: "1FFD36BD1B06EB6C287AF8D788458808"' https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt
HTTP/1.1 304 Not Modified
Date: Sun, 20 Dec 2020 03:53:03 GMT
Content-Type: text/plain
Connection: keep-alive
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Age: 1
X-Via: 1.1 PS-FOC-01vM6221:15 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdeca9f_PS-FOC-01FMC220_2660-18267
Access-Control-Allow-Origin: *
复制代码
文件已变更:
curl -I --header 'If-None-Match: "1FFD36BD1B06EB6C287AF8D788458809"' https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt
HTTP/1.1 200 OK
Date: Sun, 20 Dec 2020 03:53:14 GMT
Content-Type: text/plain
Content-Length: 740
Connection: keep-alive
Server: AliyunOSS
x-oss-request-id: 5FDEC837E677A23037926897
Accept-Ranges: bytes
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
x-oss-object-type: Normal
x-oss-hash-crc64ecma: 5148872045942545519
x-oss-storage-class: Standard
Content-MD5: H/02vRsG62woevjXiEWICA==
x-oss-server-time: 17
X-Cache-Spec: Yes
Age: 1
X-Via: 1.1 xian23:7 (Cdn Cache Server V2.0), 1.1 PS-NTG-01KKN43:8 (Cdn Cache Server V2.0), 1.1 PS-FOC-01vM6221:15 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdecaaa_PS-FOC-01FMC220_4661-42392
Access-Control-Allow-Origin: *
复制代码
结果显示:当我们使用跟远程文件一致的 Etag 时,状态码返回:HTTP/1.1 304 Not Modified,而使用篡改后的 Etag 后,返回状态 200,并且也携带了正确的 Etag 返回。所以我们在使用断点下载过程中,对于这种资源变更的场景也是需要兼顾考虑的,不然就会出现下载后文件无法使用情况。
4.4 完整性验证
文件在下载完成后,我们是不是就能直接使用呢?答案:NO。因为我们无法确认文件是否跟远程文件完全一致,所以在使用前,一定要做一次文件的完整性验证。验证方法很简单,就是咱们前面提到过的属性:Etag,资源版本的标识符,通常是消息摘要。带双引号的 32 位字符串,笔者验证过,该属性移除双引号后,就是文件的 MD5 值,大家知道,文件 MD5 是可以用来验证文件唯一性的标识。通过这个校验,就能很好的识别解决本地文件被删除、远程资源文件变更的各类非常规的业务场景。
五、实践部分
5.1 单线程断点下载
假如我们需要下载 1000 个字节大小的文件,那么我们在开始下载的时候,首先会获取到文件的 Content-Length,然后在第一次开始下载时,会使用参数:
httpURLConnection.setRequestProperty("Range", "bytes=0-1000");
当下载到到 150 个字节大小的时候,因为网络问题或者客户端服务重启等情况,导致下载终止,那么本地就存在一个大小为 150byte 的不完整文件,当我们服务重启后重新下载该文件时,我们不仅需要重新获取远程文件的大小,还需要获取本地已经下载的文件大小,此时使用参数:
httpURLConnection.setRequestProperty("Range", "bytes=150-1000");
来保证我们的下载是基于前一次的下载基础之上的。图示:
5.2 多线程断点下载
多线程断点下载的原理,与上面提到的单线程类似,唯一的区别在于:多个线程并行下载,单线程是串行下载。
5.3 代码示例
5.3.1 获取连接
在下载前,我们需要获取远程文件的 HttpURLConnection 连接,如下:
/**
* 获取连接
*/
private static HttpURLConnection getHttpUrlConnection(String netUrl) throws Exception {
URL url = new URL(netUrl);
HttpURLConnection httpURLConnection = (HttpURLConnection) url.openConnection();
// 设置超时间为3秒
httpURLConnection.setConnectTimeout(3 * 1000);
// 防止屏蔽程序抓取而返回403错误
httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0 (compatible; MSIE 5.0; Windows NT; DigExt)");
return httpURLConnection;
}
复制代码
5.3.2 是否支持范围请求
在进行断点下载开始前,我们需要判断该文件,是否支持范围请求,支持的范围请求,我们才能实现断点下载,如下:
/**
* 判断连接是否支持断点下载
*/
private static boolean isSupportRange(String netUrl) throws Exception {
HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
String acceptRanges = httpURLConnection.getHeaderField("Accept-Ranges");
if (StringUtils.isEmpty(acceptRanges)) {
return false;
}
if ("bytes".equalsIgnoreCase(acceptRanges)) {
return true;
}
return false;
}
复制代码
5.3.3 获取远程文件大小
当文件支持断点下载,我们需要获取远程文件的大小,来设置 Range 参数的范围区间,当然,如果是单线程断线下载,不获取远程文件大小,使用 Range: start- 也是能完成断点下载的,如下:
/**
* 获取远程文件大小
*/
private static int getFileContentLength(String netUrl) throws Exception {
HttpURLConnection httpUrlConnection = getHttpUrlConnection(netUrl);
int contentLength = httpUrlConnection.getContentLength();
closeHttpUrlConnection(httpUrlConnection);
return contentLength;
}
复制代码
5.3.4 单线程断点下载
不管是单线程断点下载还是多线程断点下载,片段文件下载完成后,都无法绕开的一个问题,那就是文件合并。我们使用范围请求,拿到了文件中的某个区间片段,最终还是要将各个片段合并成一个完整的文件,才能实现我们最初的下载目的。
相较而言,单线程的合并会比较简单,因为单线程断点下载使用串行下载,在文件断点写入过程中,都是基于已有片段进行尾部追加,我们使用 commons-io-2.4.jar 里面的一个工具方法,来实现文件的尾部追加:
5.3.4.1 文件分段
单线程-范围分段
/**
* 文件尾部追加
* @param netUrl 地址
* @param localFile 本地文件
* @param start 分段开始位置
* @param end 分段结束位置
*/
private static void appendFile(String netUrl, File localFile, long start, long end) throws Exception {
HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
httpURLConnection.setRequestProperty("Range", "bytes=" + start + "-" + end);
// 获取远程文件流信息
InputStream inputStream = httpURLConnection.getInputStream();
// 本地文件写入流,支持文件追加
FileOutputStream fos = FileUtils.openOutputStream(localFile, true);
IOUtils.copy(inputStream, fos);
closeHttpUrlConnection(httpURLConnection);
}
复制代码
5.3.4.2 文件追加
单线程-文件尾部追加
/**
* 文件尾部追加
* @param netUrl 地址
* @param localFile 本地文件
* @param start 分段开始位置
* @param end 分段结束位置
*/
private static void appendFile(String netUrl, File localFile, long start, long end) throws Exception {
HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
httpURLConnection.setRequestProperty("Range", "bytes=" + start + "-" + end);
// 获取远程文件流信息
InputStream inputStream = httpURLConnection.getInputStream();
// 本地文件写入流,支持文件追加
FileOutputStream fos = FileUtils.openOutputStream(localFile, true);
IOUtils.copy(inputStream, fos);
closeHttpUrlConnection(httpURLConnection);
}
复制代码
单线程下载结果
远程文件支持断点下载
远程文件大小:740
我是第1次下载,下载片段范围start=0,end=246
我是第2次下载,下载片段范围start=247,end=492
我是第3次下载,下载片段范围start=493,end=740
本地文件和远程文件一致,md5 = 1FFD36BD1B06EB6C287AF8D788458808, Etag = "1FFD36BD1B06EB6C287AF8D788458808
复制代码
5.3.5 多线程断点下载
多线程的文件合并方式与单线程不一样,因为多线程是并行下载,每个子线程下载完成的时间是不确定的。这个时候,我们需要使用到 java 一个核心类:RandomAccessFile。这个类可以支持随机的文件读写,其中有一个 seek 函数,可以将指针指向文件任意位置,然后进行读写。什么意思呢,举个栗子:假如我们开了 10 个线程,首先第一个下载完成的是线程 X,它下载的数据范围是 300-400,那么这时我们调用 seek 函数将指针动到 300,然后调用它的 write 函数将 byte 写出,这时候 300 之前都是 NULL,300-400 之后就是我们插入的数据。这样就可以实现多线程下载和本地写入了。话不多说,我们还是以代码的方式来呈现:
5.3.5.1 资源分组
多线程-资源分组
/**
* 多线程分组策略
* @param netUrl 网络地址
* @param totalFileSize 文件总大小
* @param N 线程池数量
*/
private static void groupDownload(String netUrl, int totalFileSize, int N) throws Exception {
// 采用闭锁特性来实现最后的文件校验事件
CountDownLatch countDownLatch = new CountDownLatch(N);
// 本地文件目录
String localFilePath = "F:\\test_multiple_thread.txt";
int groupSize = totalFileSize / N;
int start = 0;
int end = 0;
for (int i = 1; i <= N; i++) {
if (i <= 1) {
start = groupSize * (i - 1);
end = groupSize * i;
} else if (i > 1 && i < N) {
start = groupSize * (i - 1) + 1;
end = groupSize * i;
} else {
start = groupSize * (i - 1) + 1;
end = totalFileSize;
}
System.out.println(String.format("线程%s分配区间范围start=%s, end=%s", i, start, end));
downloadAndMerge(i, netUrl, localFilePath, start, end, countDownLatch);
}
// 校验文件一致性
countDownLatch.await();
validateCompleteness(localFilePath, netUrl);
}
复制代码
5.3.5.2 文件合并
多线程-文件合并
/**
* 文件下载、合并
* @param threadNum 线程标识
* @param netUrl 网络文件地址
* @param localFilePath 本地文件路径
* @param start 范围请求开始位置
* @param end 范围请求结束位置
* @param countDownLatch 闭锁对象
*/
private static void downloadAndMerge(int threadNum, String netUrl, String localFilePath, int start, int end, CountDownLatch countDownLatch) {
threadPoolExecutor.execute(() -> {
try {
HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
httpURLConnection.setRequestProperty("Range", "bytes=" + start + "-" + end);
// 获取远程文件流信息
InputStream inputStream = httpURLConnection.getInputStream();
RandomAccessFile randomAccessFile = new RandomAccessFile(localFilePath, "rw");
// 文件写入开始位置指针移动到已经下载位置
randomAccessFile.seek(start);
byte[] buffer = new byte[1024 * 10];
int len = -1;
while ((len = inputStream.read(buffer)) != -1) {
randomAccessFile.write(buffer, 0, len);
}
closeHttpUrlConnection(httpURLConnection);
System.out.println(String.format("下载完成时间%s, 线程:%s, 下载完成: start=%s, end = %s", System.currentTimeMillis(), threadNum, start, end));
} catch (Exception e) {
System.out.println(String.format("片段下载异常:线程:%s, start=%s, end = %s", threadNum, start, end));
e.printStackTrace();
}
countDownLatch.countDown();
});
}
复制代码
多线程下载运行结果
远程文件支持断点下载
远程文件大小:740
线程1分配区间范围start=0, end=74
线程2分配区间范围start=75, end=148
线程3分配区间范围start=149, end=222
线程4分配区间范围start=223, end=296
线程5分配区间范围start=297, end=370
线程6分配区间范围start=371, end=444
线程7分配区间范围start=445, end=518
线程8分配区间范围start=519, end=592
线程9分配区间范围start=593, end=666
线程10分配区间范围start=667, end=740
下载完成时间1608443874752, 线程:7, 下载完成: start=445, end = 518
下载完成时间1608443874757, 线程:2, 下载完成: start=75, end = 148
下载完成时间1608443874758, 线程:3, 下载完成: start=149, end = 222
下载完成时间1608443874759, 线程:5, 下载完成: start=297, end = 370
下载完成时间1608443874760, 线程:10, 下载完成: start=667, end = 740
下载完成时间1608443874760, 线程:1, 下载完成: start=0, end = 74
下载完成时间1608443874779, 线程:8, 下载完成: start=519, end = 592
下载完成时间1608443874781, 线程:6, 下载完成: start=371, end = 444
下载完成时间1608443874784, 线程:9, 下载完成: start=593, end = 666
下载完成时间1608443874788, 线程:4, 下载完成: start=223, end = 296
本地文件和远程文件一致,md5 = 1FFD36BD1B06EB6C287AF8D788458808, Etag = "1FFD36BD1B06EB6C287AF8D788458808"
复制代码
从运行结果可以出,子线程下载完成时间并没有完全按着我们 for 循环指定的 1-10 线程标号顺序完成,说明子线程之间是并行在写入文件。其中还可以看到,子线程 10 和子线程 1 是在同一时间完成了文件的下载和写入,这也很好的验证了我们上面提到的 RandomAccessFile 类的效果。
5.3.6 完整性判断
完整性校验
**
* 校验文件一致性,我们判断Etag和本地文件的md5是否一致
* 注:Etag携带了双引号
* @param localFilePath
* @param netUrl
*/
private static void validateCompleteness(String localFilePath, String netUrl) throws Exception{
File file = new File(localFilePath);
InputStream data = new FileInputStream(file);
String md5 = DigestUtils.md5Hex(data);
HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
String etag = httpURLConnection.getHeaderField("Etag");
if (etag.toUpperCase().contains(md5.toUpperCase())) {
System.out.println(String.format("本地文件和远程文件一致,md5 = %s, Etag = %s", md5.toUpperCase(), etag));
} else {
System.out.println(String.format("本地文件和远程文件不一致,md5 = %s, Etag = %s", md5.toUpperCase(), etag));
}
}
复制代码
六、写在最后
文件断点下载的优势在于提升下载速度,但是也不是每种业务场景都适合,比如说业务网络环境很好,下载的单个文件大小几十兆的情况下,使用断点下载也没有太大的优势,反而增加了实现方案的复杂度。这就要求我们开发人员在使用时酌情考虑,而不是盲目使用。
作者:vivo-Tang Aibo
评论