论文设计了新的
CNN-ViT
混合神经网络FasterViT
,重点关注计算机视觉应用的图像吞吐能力。FasterViT
结合CNN
的局部特征学习的特性和ViT
的全局建模特性,引入分层注意力(HAT
)方法在降低计算成本的同时增加窗口间的交互。在包括分类、对象检测和分割各种CV
任务上,FasterViT
在精度与图像吞吐量方面实现了SOTA
,HAT
可用作即插即用的增强模块来源:晓飞的算法工程笔记 公众号
论文: FasterViT: Fast Vision Transformers with Hierarchical Attention
- 论文地址: https://arxiv.org/abs//2306.06189
- 论文代码: https://github.com/NVlabs/FasterViT
Introduction
ViT
最近在计算机视觉领域变得流行,并在图像分类、目标检测和语义分割等各种应用中取得了卓越的性能。尽管如此,纯
ViT
模型由于缺乏归纳偏置,导致需要更多的训练数据并可能影响性能。而由
CNN
和
ViT
组成的混合架构则可以解决这个问题并达到有竞争力的性能,无需大规模训练数据集或知识蒸馏等其他技术。
ViT
的一个组成部分是自注意力机制,可以对短距离和长距离的空间关系进行建模。但由于自注意力的二次计算复杂度会显着影响效率,阻碍其在高分辨率图像应用中的使用。此外,与原始
ViT
模型的架构(即固定分辨率,无下采样)相反,以多尺度的方式学习特征通常会产生更好的性能,特别是对于下游应用(如检测、分割)。
为了解决这些问题,
Swin Transformer
提出了一种多尺度架构,其中自注意力在局部窗口内计算,通过窗口移动保证不同区域之间的交互。但由于局部区域的感受域有限且窗口移动的覆盖范围较小,跨窗口交互和长距离空间关系的建模在高分辨率输入的任务中依然具有挑战性。此外,在早期分辨率较大阶段也可能会由于局部窗口数量的增加而影响图像吞吐量。最近,
Swin Transformer V2
通过改进自注意力机制来解决高分辨率图像训练的不稳定问题。但与
Swin Transformer
相比,除了较低的图像吞吐量之外,
Swin Transformer V2
仍然依赖原始的窗口移动机制来进行不同窗口的交互,这在处理大图像时依然不高效。
于是,论文提出一种专为高分辨率图像输入量身定制的
FasterViT
混合架构,能保持较大的图像吞吐。
FasterViT
由四个不同的阶段组成,在高分辨率阶段(即阶段 1、2)使用残差卷积块,在后续阶段(即阶段 3、4)使用
Transformer
块,阶段之间通过步长卷积层来降低输入图像分辨率以及加倍通道数。这样的架构可以快速生成高质量
token
,然后基于
Transformer
块来进一步处理这些
token
。对于每个
Transformer
块,论文使用分层注意力块来提取长短距离空间关系,进行有效的跨窗口交互。
如图2所示,分层注意力机制为每个局部窗口学习一个
carrier token
作为总结,然后基于
carrier token
对窗口之间的交互模式进行建模。由于有基于局部窗口的注意力作为计算约束,随着区域数量的增加,分层注意力的计算复杂度几乎随输入图像分辨率线性增长。因此,它是捕获高分辨率特征的远距离关系的高效且有效的方法。
论文在各种图像任务和数据集上广泛地验证了所提出的
FasterViT
模型的有效性,考虑性能和图像吞吐量之间的权衡,
FasterViT
在
ImageNet-1K top-1
实现了最先进的性能。为了展示
FasterViT
对于更大数据集的可扩展性,论文还在
ImageNet-21K
数据集上对
FasterViT
进行了预训练,并在更大规模和更大分辨率的任务上进行微调和评估,实现了最先进的性能。
论文的贡献总结如下:
-
推出新颖的
FasterViT
混合视觉架构,旨在实现性能和图像吞吐之间的最佳平衡,可以针对不同的数据集和模型大小有效地缩放到更高分辨率的输入图像。 - 提出了分层注意力模块,可以有效地捕获局部区域的跨窗口交互,并对长距离空间关系进行建模。
-
FasterViT
在图像吞吐和准确性之间的权衡上实现了新的SOTA
,比基于ViT
的同类架构和最新的SOTA
模型要快得多。同时,在MS COCO
数据集上的检测和实例分割以及ADE20K
数据集上的语义分割达到了具有竞争力的性能。
FasterViT
Design Principals
论文专注于在主流硬件上实现计算机视觉任务的最高吞吐量,需要在数据传输和计算之间进行仔细的平衡,以最大限度地提高吞吐量。
在分层视觉模型中,中间特征的空间维度随着推理的进行而缩小。初始网络层具有较大的空间维度和较少的通道(例如
\(112\times 112 \times 64\)
),导致可选操作受内存传输限制,应该多使用如密集卷积的计算密集型操作。此外,无法以矩阵形式表示的操作(例如非线性、池化、批量归一化)也是受内存限制的,应尽量减少使用。相反,后面的层则往往受到运算量限制。比如分层
CNN
具有大小为
\(14\times 14\)
的高维特征,为使用提取能力更强的操作(例如层归一化、SE或注意力)留下了空间,而且对吞吐量的影响相当小。
Architecture
整体设计如图 3 所示,在早期阶段使用卷积层处理高分辨率特征,后半部分依赖于新颖的分层注意力层来对整个特征图进行空间推理。在此设计中,论文根据计算量和吞吐量优化了架构。前半部分和下采样块使用了密集卷积,避免使用SE算子。同时,需要最小化高分辨率阶段(即 1、2)的层归一化使用,因为这些层往往受到内存传输限制。而后期阶段(即 3、4)通常会受到计算量限制,与内存传输成本相比,
GPU
硬件在计算上花费更多时间,应用多头注意力也不会成为瓶颈。
FasterViT Components
-
Stem
输入图像
\({\textbf{x}}\in{\mathrm{R}^{H\times W\times3}}\)
通过连续的两个
\(3\times3\)
卷积层投影为
\(D\)
维
embedding
,每个卷积层的步长为2。
embedding
会进一步批归一化,每次卷积后都会使用
ReLU
激活函数。
-
Downsampler Blocks
FasterViT
的下采样块先对空间特征应用
2D
层归一化,然后使用内核为
\(3\times3\)
且步长为 2 的卷积层,将空间分辨率降低2倍。
-
Conv Blocks
阶段 1 和阶段 2 由残差卷积块组成,定义为
其中
BN
表示批归一化。遵循设计原则,这些卷积是密集的。
-
Hierarchical Attention
在这项工作中,论文提出了一种新颖的窗口注意力模块,整体如图 2 所示,详细介绍如图 4 所示。核心是在
Swin Transformer
的局部窗口上引入
carrier tokens
(
CT
)用于汇总局部窗口的信息,随后基于
CT
进行局部窗口之间的信息交互。
假设论文给出一个输入特征图 \(\mathbf{x}\in\mathbb{R}^{{H}\times W\times d}\) ,其中 \(\textstyle H\) 、 \(\dot{W}\) 和 \(d\) 表示特征图的高度、宽度和维度。为了简单起见,设置 \(H=W\) 。以 \(n = \frac{H^{2}}{k^{2}}\) 将输入特征图划分为 \(n\times n\) 个局部窗口,其中 \(k\) 是窗口大小,如下所示:
通过池化每个窗口得到
\(L=2^{c}\)
个
token
来初始化
CT
:
其中
\(\mathbf{Conv}_{3\times 3}\)
为
Twins
中使用的高效位置编码,
\(\hat{\bf x}_{\mathrm{ct}}\)
和
AvgPool
分别表示
carrier token
和特征池化操作。这些池化的
token
代表了各自局部窗口的总结,一般都有
\(L << k\)
,论文将
c
设置为
1
。
CT
的初始化在每个阶段仅执行一次,每个局部窗口
\({\hat{\mathbf{x}}}_{l}\)
都有唯一的
CT
\(\hat{\bf x}_{\mathrm{ct},1}\)
,构成
\(\hat{\bf x}_{\mathrm{ct}}\:=\:\{\hat{\bf x}_{\mathrm{ct},1}\}_{1=0}^{n}.\)
集合。
在每个
HAT
块中,
CT
都会经历以下注意力处理:
其中
LN
表示层归一化,
MHSA
表示多头自注意力,
\(\gamma\)
是可学习的每个通道特定的缩放因子,
\(\mathbf{MLP}_{d\rightarrow4d\rightarrow d}\)
是带有
GeLU
激活函数的两层
MLP
结构。
接下来,为了对长短距离空间信息进行建模,论文需要进行局部
token
\(\hat{\mathbf{x}}_{l}\)
和
carrier token
\({\hat{\mathbf{x}}}_{\mathrm{ct,l}}\)
之间的交互信息。
首先,将局部特征和
CT
连接起来,每个局部窗口只能访问其相应的
CT
:
随后进行另一组注意力处理:
最后,
token
被进一步拆分回局部特征和
CT
,用于后续的分层注意力层:
公式 4-7 在阶段中的迭代执行,为了进一步促进长距离交互,论文在阶段末尾设计了全局信息传播计算如下:
在公式 4 和 6 中,
MHSA
具有
token
位置不变性,但显然特征在空间维度中的位置能提供更丰富的信息。为了解决这个问题,论文效仿
SwinV2
采用两层
MLP
将
2D
绝对位置信息嵌入到
CT
和局部窗口
token
中。为了促进类似图像的局部归纳偏差,论文还使用
SwinV2
的对数空间的相对位置偏差来增强注意力计算,确保
token
的相对位置有助于注意力学习。因为位置编码由
MLP
插值,这种方法对图像大小变化是具有灵活性的,经过训练的模型可以应用于任何输入分辨率。
多种全局-局部自注意力之间的比较如图 5 所示,分层注意力将全局注意力分为局部注意力和次全局注意力,两者都可压缩为 2 个密集注意力。
CT
参与双方的关注并促进信息交换。
-
Complexity Analysis of HAT
最传统和流行的完全注意力的复杂性是 \(O(H^{4}d)\) ,将特征大小划分为大小为 \(k\) 的窗口并运行注意力,能简化到 \(O(k^2H^{2}d)\) 。
众所周知,窗口注意力更有效但缺乏全局特征交互。论文基于
CT
在整个特征图上进行总结和交互,以弥补全局交互的缺失。给定每个窗口的
\(L\)
个
CT
,局部窗口计算的复杂度为
\(O((k^{2}+L)H^{2}d)\)
,
CT
注意力计算的复杂度为
\(O((\frac{H^{2}}{k^{2}}L)^{2}d)\)
,两种注意力的总成本为
\(O(k^{2}H^{2}d+LH^{2}d+\frac{H^{4}}{k^{4}}L^{2}d).\)
多级注意力的另一种方式为局部注意力提供子采样的全局信息,如
Twins
对全局特征图进行二次采样并将其用作局部窗口注意力的键和值,复杂度为
\(O(k^{2}H^{2}d+\frac{H^{4}}{k^{2}}d)\)
。在相同大小的局部窗口(
\(k\)
)和
\(H\)
下,
HAT
的复杂度为
\(O(L\ +\ {\frac{H^{2}L^{2}}{k^{4}}})\)
,
Twins
的复杂度为
\(O\bigl({\frac{H^{2}}{k^{2}}}\bigr)\)
。分辨率越高,
HAT
的效率越高。对于
\(H=32\)
、
\(k=8\)
,当
\(L=4\)
时,
HAT
为
\(O(8)\)
,而
Twins
为
\(O(16)\)
。
Experiments
Image Classification
表 1 中展示了
FasterViT
模型其它模型在
ImageNet-1K
数据集表现。
为了验证所提出模型的可扩展性,论文在
ImageNet-21K
数据集上预训练
FasterViT-4
,并在
ImageNet-1K
数据集上对各种图像分辨率进行微调。一般来说,与其他同类模型相比,
FasterViT-4
具有更好的精度-吞吐量权衡。
Object Detection and Instance Segmentation
表 3 展示了使用
Cascade Mask R-CNN
网络在
MS COCO
数据集上的对象检测和实例分割基准。与其他模型相比,
FasterViT
模型作为主干会具有更好的精度-吞吐量权衡。
Semantic Segmentation
表 5 展示了使用
UPerNet
网络在
ADE20K
数据集上的语义分割基准。与之前的任务类似,
FasterViT
模型同样有更好的性能与吞吐量权衡。
Component-wise study
如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】