0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种新的轻量级视觉Transformer

CVer 来源:CVHub 作者:CVHub 2022-12-19 14:00 次阅读

Introduction

随着 ViT 的出现,Transformer 模型在计算机视觉领域遍地开花,一层激起一层浪。虽然精度很高,但被人广为诟病的依旧是它的效率问题,说人话就是这东西压根不好部署在移动端。

随后,有许多研究人员提出了很多解决方案来加速注意力机制,例如早先苹果提出的 Mobile-Former 以及前段时间的 EdgeNeXt,均是针对移动端设计的。

本文的思路也很简单,就是仿造 CNNs 圈子中的移动端之王—— MobileNet 来进行一系列的设计和优化。对于端侧部署来讲,模型的参数量(例如 Flash 大小)和延迟对资源受限型的硬件来说至关重要。因此,作者结合了细粒度联合搜索策略,提出了一种具备低延迟和大小的高效网络——EfficientFormerV2 ,该网络在同等量级参数量和延迟下比 MobileNetV2 可以高出4个百分点(ImageNet验证集)。

28605084-7f5c-11ed-8abf-dac502259ad0.pngComparison of model size, speed, and performance

上图所示模型是在 ImageNet-1K 上进行训练所获得的 Top-1 精度。延迟是在 iPhone 12(iOS 16)上进行测量的。每个圆圈的面积与参数数量(模型大小)成正比。可以看出,EfficientFormerV2 在模型更小和推理速度更快的情况下获得了更高的性能。

Framework

先来看下整体的网络长什么样子:

288aa5a0-7f5c-11ed-8abf-dac502259ad0.pngOverall

既然都叫 EfficientFormerV2,那必然是在上一版的基础上改进了,如图(a)所示。没什么特别新奇的,一个很常规的 ViT 型架构。下面的图表是作者统计的实验改进结果:

29266526-7f5c-11ed-8abf-dac502259ad0.pngNumber of parameters, latency, and performance for various design choices

基于整体架构图和上述表格,让我们逐步拆解看看究竟做了哪些改进。

Token Mixers vs. Feed Forward Network

通常来说,结合局部信息可以有效提高性能,同时使 ViTs 对明确的位置嵌入缺失表现得更加稳健。PoolFormerEfficientFormer 中都使用了 3×3 的平均池化层(如图 2(a)所示)作为局部的Token Mixers。采用相同卷积核大小的深度可分离卷积(DWCONV)替换这些层不会带来延迟开销,同时性能也能提高 **0.6%**,参数量仅微涨 0.02M。此外,同 NASVit,作者也在 ViTs 的前馈网络(FFN)中注入了局部信息建模层,这也有益于提高性能。

这里,作者直接将原来的 Pooling 层删掉了(下采样越大,理论感受野越大),而是直接替换成 BottleNeck 的形式,先用 1×1 卷积降维压缩,再嵌入 3×3 的深度可分离卷积提取局部信息,最后再通过 1×1 的卷积升维。这样做的一个好处是,这种修改有利于后续直接才用超参搜索威廉希尔官方网站 搜索出具体模块数量的网络深度,以便在网络的后期阶段中提取局部和全局信息。

Search Space Refinement

通过调整网络的深度即每个阶段中的块数和宽度即通道数,可以发现,更深和更窄的网络可以带来:

  • 更好的准确性(0.2% 的性能提升)
  • 更少的参数(0.13M 的参数压缩)
  • 更低的延迟(0.1ms 的推理加速)

同时将这个修改的网络设置为后续 NAS 搜素的 Baseline.

MHSA Improvements

一般的 Transformer 模块都会包含两个组件,即多头注意力 MHSA 和全连接层 FFN. 作者随后便研究了如何在不增加模型大小和延迟的情况下提高注意模块性能的威廉希尔官方网站 。

首先,通过 3×3 的卷积将局部信息融入到 Value 矩阵中,这一步跟 NASVitInception transformer 一样。

其次,在 Head 维度之间添加 FC 层(就图中标识的Talking Head),增强不同头之间的信息交互。

通过这些修改,可以发现性能进一步提高了,与基线模型相比,准确度达到了 80.8%,同时参数和延迟也基本保持一致。

Attention on Higher Resolution

加入注意力机制普遍都是能够提升性能的。然而,将它应用于高分辨率特征会降低端侧的推理效率,因为它具有与空间分辨率成平方关系的时间复杂度。因此,作者仅在最后的 1/32 的空间分辨率下使用,而对于倒数的第二阶段即 4 倍下采样提出了另外一种 MHSA,这有助于将准确率提高了 0.9% 同时加快推理效率。

先前的解决方案,例如 Cswin transformerSwin transformer 都是采用基于滑动窗口的方式去压缩特征维度,又或者像 Next-vit 一样直接将 KeysValues 矩阵进行下采样压缩,这些方法对于移动端部署并不是一个最佳的选择。这里也不难理解,以 Swin transformer 为例,它在每个 stage 都需要进行复杂的窗口划分和重新排序,所以这种基于 windows 的注意力是很难在移动设备上加速优化的。而对于 Next-vit 来说表面上看虽然进行了压缩,但整个 KeyValue 矩阵依旧需要全分辨率查询矩阵(Query)来保持注意力矩阵乘法后的输出分辨率。

本文方法的解决方案可以参考图(d)和(e),整体思路是采用一个带步长的注意力,实现上就是将所有的 QKV 均下采样到固定的空间分辨率(这里是 1/32),并将注意力的输出复原到原始分辨率以喂入下一层。(⊙o⊙)…,有点类似于把瓶颈层的思路又搬过来套。

Attention Downsampling

以往的下采样方式大都是采用带步长的卷积或者池化层直接进行的。不过最近也有一部分工作在探讨 Transformer 模块内部的下采样方式,如 LeViTUniNet 提出通过注意力机制将特征分辨率减半,从而更好的整合全局上下文来进感知下采样。具体的做法也就是将 Query 中的 Token 数量减半,从而对注意力模块的输出进行压缩。

说到这里不经意间有个疑问,Token 数量减少多少才是合适?况且,如果我们直接就对所有的查询矩阵进行降采样的话,这对于较前的 stage 的特征提取是不利的,因为网络的浅层更多的是提取诸如纹理、颜色、边缘等 low-level 的信息,因此从经验上来看是需要保持更高分辨率的。

作者的方法是提出一种结合局部和全局上下文融合的组合策略,如上图(f)所示。为了得到下采样的查询,采用池化层作为静态局部下采样,而 3×3 DWCONV 则作为可学习的局部下采样,并将结果拼接起来并投影到查询矩阵中。此外,注意力下采样模块残差连接到一个带步长的卷积以形成局部-全局方式,类似于下采样瓶颈 或倒置瓶颈层。

Super-Network-Search

上面定义完基础的网络架构后,作者又进一步的应用了一种细粒度联合搜索策略,具体算法步骤如下所示:

2946b952-7f5c-11ed-8abf-dac502259ad0.pngNAS

整体架构沿用的是超网的结构。

Conclusion

在这项工作中,作者全面研究混合视觉主干并验证对于端侧更加友好的网络结构设计。此外,基于确定的网络结构,进一步提出了在大小和速度上的细粒度联合搜索,并获得了轻量级和推理速度超快的 EfficientFormerV2 模型。


		
			

审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 计算机视觉
    +关注

    关注

    8

    文章

    1698

    浏览量

    45984
  • Transformer
    +关注

    关注

    0

    文章

    143

    浏览量

    5997

原文标题:更快更强!EfficientFormerV2来了!一种新的轻量级视觉Transformer

文章出处:【微信号:CVer,微信公众号:CVer】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    EEPROM轻量级的简易类文件的数据读写库:EEPROMFS

    小。 这里就给大家分享款EEPROM轻量级的简易类文件的数据读写库:EEPROMFS 1 关于EEPROMFS EEPROMFS,基于EEPROM的简易类文件的数据读写库,方便做动态功能增减时参数管理
    的头像 发表于 11-15 16:31 424次阅读
    EEPROM<b class='flag-5'>轻量级</b>的简易类文件的数据读写库:EEPROMFS

    自动驾驶中直说的BEV+Transformer到底是个啥?

    (Bird’s Eye View)+Transformer”是两个方向的威廉希尔官方网站 ,BEV是一种全新的3D坐标系,而Transformer则是一种深度学习神经网络模型,BEV+
    的头像 发表于 11-07 11:19 372次阅读
    自动驾驶中<b class='flag-5'>一</b>直说的BEV+<b class='flag-5'>Transformer</b>到底是个啥?

    电装与京瓷合作开展轻量级太阳能发电系统实证实验

    株式会社电装(以下简称电装)与京瓷株式会社(以下简称京瓷)共同宣布,为提高现有工厂自发电率,将从2024年10月到2025年9月在电装的西尾工厂进行轻量级太阳能发电系统的实证实验。
    的头像 发表于 08-16 16:36 489次阅读

    国产芯上运行TinyMaxi轻量级的神经网络推理库-米尔基于芯驰D9国产商显板

    本篇测评由优秀测评者“短笛君”提供。本文将介绍基于米尔电子MYD-YD9360商显板(米尔基于芯驰D9360国产开发板)的TinyMaxi轻量级的神经网络推理库方案测试。 算力测试TinyMaix
    发表于 08-09 18:26

    国产芯上运行TinyMaxi轻量级的神经网络推理库-米尔基于芯驰D9国产商显板

    D9360国产开发板)的TinyMaxi轻量级的神经网络推理库方案测试。 算力测试 TinyMaix 是面向单片机的超轻量级的神经网络推理库,即 TinyML 推理库,可以让你在任意单片机上运行轻量级深度
    发表于 08-07 18:06

    基于Openharmony轻量级操作系统的分布式数据管理开发案例

    实验内容本例程演示如何在小凌派-RK2206开发板上使用OpenHarmony轻量级操作系统进行KvStore(即分布式数据管理)数据读写。例程:(1)创建两个线程,个负责写入KvStore存储
    的头像 发表于 08-07 08:23 955次阅读
    基于Openharmony<b class='flag-5'>轻量级</b>操作系统的分布式数据管理开发案例

    鸿蒙语言基础类库:ohos.data.storage 轻量级存储

    轻量级存储为应用提供key-value键值型的文件数据处理能力,支持应用对数据进行轻量级存储及查询。数据存储形式为键值对,键的类型为字符串型,值的存储数据类型包括数字型、字符型、布尔型。
    的头像 发表于 07-15 18:21 973次阅读

    国产芯上运行TinyMaxi轻量级的神经网络推理库-米尔基于芯驰D9国产商显板

    本篇测评由与非网的优秀测评者“短笛君”提供。本文将介绍基于米尔电子MYD-YD9360商显板(米尔基于芯驰D9360国产开发板)的TinyMaxi轻量级的神经网络推理库方案测试。算力测试
    的头像 发表于 07-05 08:02 1871次阅读
    国产芯上运行TinyMaxi<b class='flag-5'>轻量级</b>的神经网络推理库-米尔基于芯驰D9国产商显板

    苹果轻量级AR眼镜研发持续进行,发布日期仍成谜

    在科技界的风云变幻中,苹果公司始终以其独特的创新力和对细节的极致追求,引领着行业的潮流。而最近,这家全球知名的科技公司又传来了新的消息,那就是它正在研发款名为“Apple Glass”的轻量级增强
    的头像 发表于 06-24 16:07 783次阅读

    消息称苹果正在研发轻量级AR眼镜

    在科技巨头们竞相探索未来穿戴设备的浪潮中,苹果公司的则消息引起了业界的广泛关注。据多家媒体报道,苹果正在秘密研发款名为“Apple Glass”的轻量级增强现实(AR)眼镜,这款眼镜旨在为用户
    的头像 发表于 06-24 11:34 725次阅读

    部署在边缘设备上的轻量级模型

    电子发烧友网报道(文/李弯弯)边缘AI算法是一种将人工智能(AI)算法和计算能力放置在接近数据源的终端设备中的策略。这种算法通常被部署在边缘设备上,如传感器、智能手机、摄像头等,以便在靠近数据源
    的头像 发表于 05-11 00:17 2605次阅读

    深度详解嵌入式系统专用轻量级框架设计

    MR 框架是专为嵌入式系统设计的轻量级框架。充分考虑了嵌入式系统在资源和性能方面的需求。通过提供标准化的设备管理接口,极大简化了嵌入式应用开发的难度,帮助开发者快速构建嵌入式应用程序。
    发表于 04-27 02:32 984次阅读
    深度详解嵌入式系统专用<b class='flag-5'>轻量级</b>框架设计

    未来轻量级深度学习威廉希尔官方网站 探索

    除了轻量级架构设计外,作者提到了可以应用于压缩给定架构的各种高效算法。例如,量化方法 旨在减少数据所需的存储空间,通常是通过用8位或16位数字代替32位浮点数,甚至使用二进制值表示数据。
    发表于 04-23 15:54 389次阅读
    未来<b class='flag-5'>轻量级</b>深度学习威廉希尔官方网站
探索

    视觉Transformer基本原理及目标检测应用

    视觉Transformer般结构如图2所示,包括编码器和解码器两部分,其中编码器每层包括个多头自注意力模块(self-attenti
    发表于 04-03 10:32 3458次阅读
    <b class='flag-5'>视觉</b><b class='flag-5'>Transformer</b>基本原理及目标检测应用

    百度智能云推出全新轻量级大模型

    在近日举办的百度智能云千帆产品发布会上,三款全新的轻量级大模型——ERNIE Speed、ERNIE Lite以及ERNIE Tiny,引起了业界的广泛关注。相较于传统的千亿级别参数大模型,这些轻量级大模型在参数量上有了显著减少,为客户提供了更加灵活和经济高效的解决方案。
    的头像 发表于 03-22 10:28 661次阅读