写点什么

大淘宝技术斩获 NTIRE 2023 视频质量评价比赛冠军(内含夺冠方案)

  • 2023-04-26
    浙江
  • 本文字数:5459 字

    阅读完需:约 18 分钟

大淘宝技术斩获NTIRE 2023视频质量评价比赛冠军(内含夺冠方案)

近日,CVPR NTIRE 2023 Quality Assessment of Video Enhancement Challenge 比赛结果公布,来自大淘宝音视频技术团队的同学组成「TB-VQA」队伍,从 37 支队伍中脱颖而出,拿下该比赛(唯一赛道)冠军。此次夺冠是团队继 MSU 2020 和 2021 世界编码器比赛、CVPR NTIRE 2022 压缩视频超分与增强比赛夺魁后,再次在音视频核心技术的权威比赛中折桂。

赛事介绍

CVPR NTIRE (New Trends in Image Restoration and Enhancement workshop and challenges on image and video processing) 是近年来图像和视频增强处理领域最具影响力的全球性赛事。今年(2023)的赛事包括 Quality Assessment of Video Enhancement Challenge(视频质量评价,VQA)、real-time image super-resolution、image shadow removal、video colorization、image denoising 等,覆盖许多图像和视频增强处理的经典任务。


由上述竞赛不难看出,视频增强处理已经在学术界大量研究并在工业界得到广泛应用。随着互联网视频化的深入,越来越多的 UGC(user generated content)等非传统广电视频(包括但不限于短视频、直播等)在互联网平台上被生产或播放,并大都经过增强处理。自然地,如何有效地衡量增强处理后的视频质量就成为一项重要且紧迫的任务。


因此,VQA 竞赛应运而生,并由 NTIRE 于今年首次举办。主办方构建了包含 1,211 个真实应用场景的视频的数据集 ,对其进行包括色彩、亮度、和对比度增强、去抖动、去模糊等增强处理,并对处理后的视频进行打分作为 GT(ground truth)。参赛者设计方案对上述视频进行打分,与 GT 更为接近(使用相关性作为衡量指标,包括 SRCC 和 PLCC,是业界最常用的指标,更高的 SRCC 和 PLCC 表示与 GT 拟合程度更高)的参赛者名次更好。


本次竞赛由苏黎世联邦理工学院计算机视觉实验室主办,仅有唯一赛道——无参考视频质量评价,云集了国内外几十只参赛队伍,包括字节、快手、网易、小米、Shopee 等知名科技企业,北京航空航天大学、新加坡南洋理工大学等高校均有参赛。


经过激烈的角逐,大淘宝音视频技术的参赛队伍「TB-VQA」在唯一赛道夺冠,在 Main Score、SRCC、和 PLCC 三项指标均胜出。

表 1. CVPR NTIRE 2023 VQA 比赛排行榜


值得一提的是,本次比赛的冠军是大淘宝音视频技术团队继 MSU 2020 和 2021 世界编码器比赛、CVPR NTIRE 2022 压缩视频超分与增强比赛夺魁后,再次在音视频核心技术的权威比赛中取得佳绩。团队在视频编码、视频增强处理、视频质量评价、以及视频传输等视频核心技术领域均有布局,一些技术突破发表在 CVPR、ICCV 等计算机视觉和视频领域的顶级会议,在上述比赛取得出色成绩,也是团队长期以来持续投入和不断创新的阶段性成果。


在视频编码方面,MSU(莫斯科国立大学)世界视频编码器大赛是视频编码领域最权威的全球性顶级赛事,迄今已由 MSU 的 Graphics & Media Lab 连续举办了二十三届,其评测报告被业界广泛认可,吸引了包括 Google、Netflix、Intel、Nvidia、腾讯、字节、华为等国内外知名科技企业参与,代表了行业发展的风向标。大淘宝音视频技术团队自研的奇点编码器 S265 和 S266,相比业界流行的开源编码器 x265、VVEnC 等,在编码速度、编码质量、和编码延时等多方面均有明显突破,并联合阿里云视频云团队参加了 MSU 2020 和 2021 连续两届比赛,取得多个赛道第一。S265 已经全面应用于包括淘宝直播、逛逛、首页信息流在内的大淘宝内容业务,经过奇点编码器压缩后,普通手机在 3G 网络也可顺滑播放 720p 的高画质,最新发布的手机甚至可支持 4k 30FPS 超高清直播。


在视频增强处理方面,CVPR NTIRE 压缩视频超分与增强比赛自 2020 年起已举办三届,在工业界和学术界均产生了重大的影响,吸引了包括腾讯、字节、华为等知名科技企业,中科院、北大、港中文、ETH 等科研机构参赛,其中很多参赛者都是连续参赛,竞争激烈。CVPR NTIRE 2022 压缩视频超分与增强比赛包含三个赛道,分别是:

  1. 赛道 1:针对视频编码的高压缩比带来的失真的视频恢复问题;

  2. 赛道 2:在赛道 1 的基础上,同时处理高压缩和 2 倍超分问题。;

  3. 赛道 3:在赛道 2 的基础上,进一步探索 4 倍超分问题。


其中,Track1 和 Track2 的问题已经在工业界得到广泛应用,将视频还原到理想视频的画质能够大幅提升人眼感官,吸引人们的观看意愿。经过激烈的角逐,大淘宝音视频技术团队自研的视频超分方法 TaoMC2,取得了三个赛道两冠一亚(赛道 3 亚军)的成绩。相关视频增强技术目前已广泛应用于点淘、逛逛在内的所有大淘宝内容业务,支持直播、短视频的实时和非实时转码过程中的画质增强;相关超分辨率技术也广泛用于诸如弱网等场景下的低分辨率视频传输、保障低传输带宽下的高分辨率的用户播放画质体验。后文分享我们的具体的方案——

参考方案

视频质量评价按照对参考视频可用性一般可以分成三类:全参考视频质量评价、部分参考视频质量评价、和无参考视频质量评价 [1]。由于视频增强场景不存在完美的参考视频,因此更适合采用无参考视频质量评价方法。无参考视频质量评价作为质量评价的主要研究方向之一,在过去的几年里得到了广泛的关注。主流方法有:基于图像识别 [2] 或者图像质量评价 [3] 任务的预训练模型来提取视频的帧级特征、考虑时序上的相关性回归特征或者进一步结合时域特征 [4] 、以及针对视频失真进行端到端的特征表征学习 [5] 等。


我们提出的方法基于 [5] ,并且考虑到近年来 Swin Transformer 在 CV 领域取得巨大成功,使用 Swin Transformer V2 替换较为传统的卷积神经网络(CNN)骨干网络 ResNet 提取空域特征。同时,为了更好融合时空域特征,在时空特征融合模块中,我们引入了一个 1×1 卷积层,它加深了从预训练网络的中间阶段提取的空间特征,以弥补浅层和深层特征之间的差距。此外,为了解决常见的质量评价数据集规模过小、大模型容易过拟合的问题,我们同时在空域和时域两个维度进行数据增强,提高模型性能。

模型设计

图 1 示出了所提出的无参考视频质量评价模型的框架,包括空域特征提取模块、时域特征提取模块、和时空特征融合回归模块。具体来说,空域特征模块提取空间失真相关特征,时域特征提取模块提取运动相关信息,并且,考虑到运动信息对失真感知的影响,我们进一步融合时空域特征,然后通过特征回归映射到最终的质量分数。

图 1. VQA 模型的网络架构示例。

空域特征提取

语义特征作为重要的空域特征经常用于质量评价,其描述图像中物体的物理特性、物体之间的时空关系、以及物体的内容信息等,属于图像的高维特征。对于不同的图像内容,语义特征会影响人眼的视觉感知:人眼通常无法容忍纹理丰富的内容(例如草坪、地毯)的模糊,而对纹理简单的内容(例如天空、墙面)的模糊相对不敏感。综上考虑,我们利用从预训练的 Swin Transformer V2 [3] 网络倒数第二层 Transformer 模块输出的特征作为帧级的空间域特征,如图 2 公式所示:

图 2. 语义特征。


时域特征提取

手机拍摄时的抖动会导致视频发生时域失真,并且,其无法被视频空域特征有效地描述。因此,为了提高模型的准确度,我们利用预训练的 SlowFast 网络[7] 获取视频片段级的运动特征,作为时域特征表征,如图 3 公式所示:

图 3. 时域特征。


时空域特征融合与回归

由于不同层空域特征之间存在较大的差异,对其进行直接拼接不利于时空特征融合,因此我们先对倒数第二层输出特征进行卷积处理,然后再与最后一层输出空间特征融合以及空域特征进行融合,并通过两层全连接层回归得到视频片段级质量分数,如图 4 所示:


图 4. 时空域特征融合与回归。


此外,我们使用时间上的平均池化来聚合视频片段质量分数作为整个视频质量分数,如图 5 公式所示:

图 5. 平均池化得到整个视频打分。

数据增强与训练

本次比赛官方提供的训练数据集有 839 个视频,不足以训练基于 Transformer 的模型。因此,我们从两个数据集增强策略和大型数据集预训练两种方法提高模型的新能。

数据集增强

视频质量评价方法常采用在图像中随机 crop 固定大小 patch 的方式进行空间数据增强。作为对比,我们同时考虑考虑空间和时间数据增强,如图 6 所示:

图 6. 时空域数据增强示例。


其中,整个视频会被分成 T 个视频片段(每秒一个片段)。提取空域特征时,每个视频片段随机抽取 1 帧。同时,为保留帧间的时间关联性,抽样帧之间的时间间隔保持不变。

大型数据集预训练

LSVQ [8] 视频质量评价数据集有38,811 个视频样本,是目前最大的开源质量评价数据集。因此,我们先在 LSVQ 数据集上对模型进行预训练,之后基于特定的任务以相对小型的数据集微调模型。

实验结果

我们在两个公开的视频质量评价数据集 KoNViD-1k 和 LIVE-VQC 上,与现有 SOTA 方法进行了对比。我们使用业界最常用的 Spearman Rank Order Correlation Coefficient(SROCC)和 Pearson Linear Correlation Coefficient(PLCC)作为指标。更高的 SROCC 表示样本间更好的保序性,更高的 PLCC 表示与标注分数更好地拟合程度。结果如表 2 所示。

表 2. MD-VQA 与其他视频质量评价 SOTA 模型在 KoNViD-1k、LIVE-VQC 数据集的性能比较。


从表中可以看出,我们在所测试数据集上的 SROCC 和 PLCC 均超过了现有 SOTA 方法,达到了先进性能。


此外,为了探索不同优化方式对模型性能的贡献,我们进行了消融实验(ablation study),如表 3 所示。

表 3. 骨干网络替换(Swin)、特征融合优化(Conv)、数据集增强优化(DA)和大型数据集预训练(Pre)对于模型性能的贡献比较。


从表 3 中可以看出,骨干网络替换(Swin)、特征融合优化(Conv)、数据集增强优化(DA)和、大型数据集预训练(Pre)对于模型性能的领先性均有贡献。


业务应用

如前所述,随着互联网视频化的深入,越来越多的 UGC 等非传统广电视频(包括但不限于短视频、直播等)在淘宝直播、逛逛等平台上被生产或播放。通常,由于拍摄设备、环境、技术等各种原因,用户生产的视频画质是参差不齐的。此外,在下发的过程中,视频画质受制于到网络环境、带宽成本、用户机型差异等因素,以及对应的编解码、视频增强处理、视频传输等过程,视频画质往往不可避免地受到影响。那么,如何确保商家和用户在淘宝直播等平台极致的开播和观看体验呢?


针对这个问题,大淘宝音视频技术团队自研了针对 UGC 视频的无参考视频质量评价模型 —— MD-VQA(Multi-Dimensional Video Quality Assessment),综合视频的语义、失真、运动等多维度信息,来衡量视频绝对质量的高低。MD-VQA 已经全面应用于包括淘宝直播、逛逛在内的大淘宝内容业务,“量化”并监控视频业务的大盘画质变化,快速、精准地筛选出不同画质水位的直播间和短视频,配合自研 S265 编码器、视频增强算子集 STaoVideo、以及《电商直播高画质开播指南》[9] 等,帮助提升平台内容画质。此次比赛的冠军方案,就是基于 MD-VQA 探索出的新方法。


具体来说,以淘宝直播为例,MD-VQA 提供分钟级的在线质量监控能力,能够快速、精准地筛选不同画质水位的直播间,协助线上低画质 badcase 的挖掘分析,实时提醒主播画质问题方面的瓶颈问题,配合《电商直播高画质开播指南》,提供改进措施,使得淘宝直播主播画质满意度显著提升:在收到过提醒的主播中,75%+希望保持和完善实时提醒服务。


此外,MD-VQA 在整个阿里集团内部也在支撑越来越多的画质评价相关业务,比如钉钉直播、ICBU 直播和支付宝直播,协助监控视频相关业务的画质体验。


参考文献

  1. Shyamprasad Chikkerur, Vijay Sundaram, Martin Reisslein, and Lina J Karam. Objective video quality assessment methods: A classification, review, and performance comparison. IEEE Transactions on Broadcasting, 57(2):165–182, 2011.

  2. Dingquan Li, Tingting Jiang, and Ming Jiang. Quality assessment of in-the-wild videos. In Proceedings of the ACM International Conference on Multimedia, pages 2351–2359, 2019.

  3. Yilin Wang, Junjie Ke, Hossein Talebi, Joong Gon Yim, Neil Birkbeck, Balu Adsumilli, Peyman Milanfar, and Feng Yang. Rich features for perceptual quality assessment of UGC videos. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 13435–13444, 2021.

  4. Bowen Li, Weixia Zhang, Meng Tian, Guangtao Zhai, and Xianpei Wang. Blindly Assess Quality of In-the-Wild Videos via Quality-aware Pre-training and Motion Perception. IEEE Transactions on Circuits and Systems for Video Technology, 32(9):5944–5958, 2022.

  5. Wei Sun, Xiongkuo Min, Wei Lu, and Guangtao Zhai. A deep learning based no-reference quality assessment model for UGC videos. In Proceedings of the ACM International Conference on Multimedia, pages 856–865, 2022

  6. Ze Liu, Han Hu, Yutong Lin, Zhuliang Yao, Zhenda Xie, Yixuan Wei, Jia Ning, Yue Cao, Zheng Zhang, Li Dong, et al. Swin transformer v2: Scaling up capacity and resolution. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 12009–12019, 2022.

  7. Christoph Feichtenhofer, Haoqi Fan, Jitendra Malik, and Kaiming He. Slowfast networks for video recognition. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 6202–6211, 2019.

  8. Zhenqiang Ying, Maniratnam Mandal, Deepti Ghadiyaram, and Alan Bovik. Patch-VQ:’patching up’the video quality problem. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 14019–14029, 2021.

  9. 《服贸会在京举行|淘宝直播携手佳能佳直播联合发布《电商直播高画质开播指南》让品质直播触手可及》

用户头像

还未添加个人签名 2021-06-10 加入

还未添加个人简介

评论

发布
暂无评论
大淘宝技术斩获NTIRE 2023视频质量评价比赛冠军(内含夺冠方案)_视频_阿里巴巴大淘宝技术_InfoQ写作社区