恒源云 (Gpushare)_FAIR CVPR2022 新作 DVT 是个啥?
文章来源 | 恒源云社区
原文地址 | 用于视频的可变形Transformer
原文作者 | 咚咚
hi,大家好啊!窗外的树🌲 绿了,楼下的桃花🌺 开了,春天,就这么滴的过去了……
小编已经居家办公(不能下楼)3 个礼拜啦!敬请期待疯掉的小编~
我的春游彻底没希望了!!!
说那么多有啥用呢?还不是得乖乖搬运社区文章!毕竟社区伙伴们发帖是那么的勤快!Respect!
正文开始
摘要
引入主题:在视频分类领域,视频 Transformer 最近作为一种有效的卷积网络替代品出现。
现存问题:大多数以前的视频 Transformer 采用全局时空注意或利用手动定义的策略来比较帧内和帧间的 patch。这些固定注意力方案不仅计算成本高,而且通过比较预定位置的 patch,忽略了视频中的运动动力学。
解决方案:该论文介绍了可变形视频 Transformer(DVT),它根据运动信息动态预测每个查询位置的一小部分视频 Patch,从而允许模型根据帧间的对应关系来决定在视频中查看的位置。关键的是,这些基于运动的对应关系是从以压缩格式存储的视频信息中以零成本获得的。
实验结果:在四个大型视频基准(Kinetics-400、Something-Something-V2、EPIC-KITCHENS 和 Diving-48)上的实验表明,该论文模型在相同或更低的计算成本下实现了更高的精度,并在这四个数据集上获得了最优结果。
视频 TRANSFORMER
视频数据的输入大小一般可以表示为 ,T 表示帧数,3 表示每一帧是 RGB 图像
因为使用的是 Transformer 架构,所以首先需要将输入数据转换为一个 tokens,S 表示每一帧中的 patch 个数,每个 token 可以表示为 。整个过程可以表示如下:
将每一帧图像进行非重叠分割,生成 S 个 patch。
将每个 patch 投影到 D 个通道维度上。
添加空间位置编码和时间编码
最终得到
然后通过多头自注意力,layer norm(LN)和 MLP 计算,可以表示如下:
其中具体的自注意力可以表示如下(使用单头进行简化说明)
根据以往的视频 Transformer 算法,自注意力机制可以分为 Global space-time attention 和 Divided space-time attention
Global space-time attention
简单来说就是将时空联合起来进行注意力计算,公式如下:
其中注意力权重计算公式如下:
整个计算过程的计算复杂度为,最大的问题就是计算量很大。
Divided space-time attention
顾名思义,就是将时间和空间的注意力进行分开计算,用来减少计算量
空间注意力计算公式如下:
计算复杂度为对应的时间注意力计算公式如下:
计算复杂度为需要注意的是,时间注意力只对不同时间帧上的同一个空间位置进行注意力计算!这就是其最大的问题,因为其没有考虑到不同帧之间目标的运动。
可变形视频 TRANSFORMER
主要分为以下三个部分(创新点)
Deformable Space-time Attention(D-ST-A)
这个注意力机制和上文 Divided space-time attention 中的时间注意力机制很相似,但是有两个主要不同点:
对于每个查询 ,使用不同帧上的 N 个空间位置进行相似度计算,而不是一个固定位置,这虽然带来相对较大的计算量,但会获取更大空间上的特征信息,性能会提高很多。文中使用 N=8。
这 N 个位置是数据驱动的,而不是人为定义的,这在后面进行细说。
该注意力机制的数学表达式如下:
其中每一帧上的 N 个空间位置是如何计算的呢?
——是根据查询点特征和运动嵌入特征经过投影生成的相对偏置计算的,公式如下:
其中运动嵌入是根据存储在压缩视频中的运动位移和 RGB residuals 确定的,详细步骤可以查看论文。
其中的相似度矩阵与之前的计算方式不同,而是根据查询点特征和运动嵌入特征计算而来的,公式如下:
Deformable Multi-Scale Attention (D-MS-A)
上述 D-ST-A 是一个时间上的注意力机制,而 D-MS-A 是一个空间上的注意力机制,用于编码同一帧上的注意力。
但对于每一帧图像,这里引入了多尺度注意力——计算 F 个不同分辨率下的空间信息,不同分辨率图像中采样个 patch 进行注意力计算,多分辨率可以通过不同步长的 3D 卷积层来实现,数学表达式如下:
其中不同分辨率图像中的 patch 采样也是通过根据其中对应查询点特征计算偏置得到的,计算公式如下:
Attention Fusion
可以仅使用可变形时空注意(D-ST-A)、仅使用可变形多尺度注意(D-MS-A)以及两者的组合(D-ST+MS-A)。
在最后一种情况下,将由这两种注意策略独立计算出的两个 token 和馈送到一个注意力融合层 u()进行信息融合,。
论文给出了两种形式的注意力融合方式,一种基于简单的线性投影,另一种基于 MLP-Mixer 模型。
实验
在四个标准视频分类基准上评估 DVT:Kinetics-400(K400)、Something-Something-V2(SSv2)、EPIC-KITCHENS-100(EK100)和 Diving-48(D48)
消融实验
Choice of motion cues
评论