恒源云 _AdderSR: Towards Energy Efficient Image Super-Resolution 学习笔记
文章来源 | 恒源云社区
原文地址 | [CVPR2021]
原文作者 | 学习 cv 的小何
一 研究问题
单图像超分辨率(SISR)是一项典型的计算机视觉任务,其目的是从低分辨率(LR)图像中重建高分辨率图像。SISR 是智能手机和移动相机在现实应用中非常流行的图像信号处理任务。由于这些便携式设备的硬件限制,有必要开发具有低计算成本和高视觉质量的 SISR 模型。
第一个超分辨率的卷积神经网络(SRCNN)[5]只包含三个具有大约 57K 参数的卷积层。然后,随着深度和宽度的增加,DCNN 的容量被放大,导致超分辨率的显著提高。最近 DCNN 的参数和计算成本也相应增加。例如,剩余密集网络(RDN)[30]包含 22M 参数,并且仅处理一个图像需要大约 10,192GFLOP(浮数操作)。与视觉识别的神经网络(如 50 清晰度网)相比,由于较大的特征地图大小,SISR 模型具有更高的计算复杂度。这些大量的计算将减少移动设备的持续时间。
本文利用加法神经网络(AdderNet)研究了单幅图像超分辨率问题。 与卷积神经网络相比,加法网利用加法计算输出特征,避免了传统乘法的大量能量消耗。 然而,由于计算范式的不同,很难将 AdderNet 在大规模图像分类上的现有成功直接继承到图像超分辨率任务中。 具体来说,加法器操作不容易学习一致性映射,这对于图像处理任务是必不可少的。 此外,AdderNet 无法保证高通滤波器的功能。 为此,我们深入分析了加法器操作与身份映射之间的关系,并插入快捷方式,以提高使用加法器网络的 SR 模型的性能。
二 背景介绍
AdderNet 加法网络,“计算机视觉研究院”平台之前就详细分析了,并且移植到目标检测,具体链接如下:CVPR2020 AdderNet(加法网络)
代码实践 | CVPR2020——AdderNet(加法网络(代码分享)
现有的有效超分辨率方法旨在减少模型的参数或计算量。最近,[Hanting Chen, Yunhe Wang, Chunjing Xu, Boxin Shi, Chao Xu, Qi Tian, and Chang Xu. Addernet: Do we really need multiplications in deep learning? In CVPR, 2020]开创了一种新的方法,通过用加法运算代替乘法来减少网络的功耗。它在卷积层中没有任何乘法,在分类任务上实现了边际精度损失。本此研究旨在提高加法网络在超分辨率任务中的性能。
三 流程图
简要概括本文流程:
1、提出将 Addnet 应用在 SR 里会遇到的两个问题,
不能学习一致性映射
不能实现高通滤波
2、分析了这两个问题出现的原因并进行证明
3、提出了解决这两个问题的方法
4、实验验证
四 方法
核心方法简述:
利用类似残差的方法解决无法实现一致性映射的问题
利用指数激活解决无法实现高通滤波的问题
参考
AdderSR: Towards Energy Efficient Image Super-Resolution
AdderNet: Do We Really Need Multiplications in Deep Learning?
评论