0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

关于Next-ViT 的建模能力

OpenCV学堂 来源:机器之心 作者:机器之心 2022-07-26 10:25 次阅读

来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer,即 Next-ViT。Next-ViT 能像 CNN 一样快速推断,并有 ViT 一样强大的性能。

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?

近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,Next-ViT 的性能可以媲美优秀的 CNN 和 ViT。

8cd17352-0c2c-11ed-ba43-dac502259ad0.png

Next-ViT 的研究团队通过开发新型的卷积块(NCB)和 Transformer 块(NTB),部署了友好的机制来捕获局部和全局信息。然后,该研究提出了一种新型混合策略 NHS,旨在以高效的混合范式堆叠 NCB 和 NTB,从而提高各种下游任务的性能。

大量实验表明,Next-ViT 在各种视觉任务的延迟 / 准确性权衡方面明显优于现有的 CNN、ViT 和 CNN-Transformer 混合架构。在 TensorRT 上,Next-ViT 与 ResNet 相比,在 COCO 检测任务上高出 5.4 mAP(40.4 VS 45.8),在 ADE20K 分割上高出 8.2% mIoU(38.8% VS 47.0%)。同时,Next-ViT 达到了与 CSWin 相当的性能,并且推理速度提高了 3.6 倍。在 CoreML 上,Next-ViT 在 COCO 检测任务上比 EfficientFormer 高出 4.6 mAP(42.6 VS 47.2),在 ADE20K 分割上高出 3.5% mIoU(从 45.2% 到 48.7%)。

方法

Next-ViT 的整体架构如下图 2 所示。Next-ViT 遵循分层金字塔架构,在每个阶段配备一个 patch 嵌入层和一系列卷积或 Transformer 块。空间分辨率将逐步降低为原来的 1/32,而通道维度将按阶段扩展。

8cf8333e-0c2c-11ed-ba43-dac502259ad0.png

研究者首先深入设计了信息交互的核心模块,并分别开发强大的 NCB 和 NTB 来interwetten与威廉的赔率体系 视觉数据中的短期和长期依赖关系。NTB 中还进行了局部和全局信息的融合,进一步提高了建模能力。最后,为了克服现有方法的固有缺陷,该研究系统地研究了卷积和 Transformer 块的集成方式,提出了 NHS 策略,来堆叠 NCB 和 NTB 构建新型 CNN-Transformer 混合架构。

NCB

研究者分析了几种经典结构设计,如下图 3 所示。ResNet [9] 提出的 BottleNeck 块由于其在大多数硬件平台上固有的归纳偏置和易于部署的特性,长期以来一直在视觉神经网络中占据主导地位。不幸的是,与 Transformer 块相比,BottleNeck 块的有效性欠佳。ConvNeXt 块 [20] 通过模仿 Transformer 块的设计,对 BottleNeck 块进行了现代化改造。虽然 ConvNeXt 块提高了网络性能,但它在 TensorRT/CoreML 上的推理速度受到低效组件的严重限制。Transformer 块在各种视觉任务中取得了优异的成绩,然而 Transformer 块的推理速度比 TensorRT 和 CoreML 上的 BottleNeck 块要慢得多,因为其注意力机制比较复杂,这在大多数现实工业场景中是难以承受的。

8d095e02-0c2c-11ed-ba43-dac502259ad0.png

为了克服上述几种块的问题,该研究提出了 Next Convolution Block (NCB),它在保持 BottleNeck 块的部署优势的同时获得了 Transformer 块的突出性能。如图 3(f) 所示,NCB 遵循 MetaFormer (已被证实对 Transformer 块至关重要) 的一般架构。

此外,一个高效的基于注意力的 token 混合器同样重要。该研究设计了一种多头卷积注意力(MHCA)作为部署卷积操作的高效 token 混合器,并在 MetaFormer [40] 的范式中使用 MHCA 和 MLP 层构建 NCB。

NTB

NCB 已经有效地学习了局部表征,下一步需要捕获全局信息。Transformer 架构具有很强的捕获低频信号的能力,这些信号能够提供全局信息(例如全局形状和结构)。

然而,相关研究已经发现,Transformer 块可能会在一定程度上恶化高频信息,例如局部纹理信息。不同频段的信号在人类视觉系统中是必不可少的,它们以某种特定的方式融合,以提取更多本质和独特的特征。

受这些已知结果的影响,该研究开发了 Next Transformer Block (NTB),以在轻量级机制中捕获多频信号。此外,NTB 可用作有效的多频信号混频器,进一步增强整体建模能力。

NHS

近期一些工作努力将 CNN 和 Transformer 结合起来进行高效部署。如下图 4(b)(c) 所示,它们几乎都在浅层阶段采用卷积块,在最后一两个阶段仅堆叠 Transformer 块,这种结合方式在分类任务上是有效的。但该研究发现这些混合策略很容易在下游任务(例如分割和检测)上达到性能饱和。原因是,分类任务仅使用最后阶段的输出进行预测,而下游任务(例如分割和检测)通常依赖每个阶段的特征来获得更好的结果。这是因为传统的混合策略只是在最后几个阶段堆叠 Transformer 块,浅层无法捕获全局信息。

8d1f8e66-0c2c-11ed-ba43-dac502259ad0.png

该研究提出了一种新的混合策略 (NHS),创造性地将卷积块 (NCB) 和 Transformer 块 (NTB) 与 (N + 1) * L 混合范式结合在一起。NHS 在控制 Transformer 块比例的情况下,显著提升了模型在下游任务上的性能,并实现了高效部署。

首先,为了赋予浅层捕获全局信息的能力,该研究提出了一种(NCB×N+NTB×1)模式混合策略,在每个阶段依次堆叠 N 个 NCB 和一个 NTB,如图 4(d) 所示。具体来说,Transformer 块 (NTB) 放置在每个阶段的末尾,使得模型能够学习浅层中的全局表征。该研究进行了一系列实验来验证所提出的混合策略的优越性,不同混合策略的性能如下表 1 所示。

8d2ddf3e-0c2c-11ed-ba43-dac502259ad0.png

此外,如下表 2 所示,大模型的性能会逐渐达到饱和。这种现象表明,通过扩大 (NCB × N + NTB × 1) 模式的 N 来扩大模型大小,即简单地添加更多的卷积块并不是最佳选择,(NCB × N + NTB × 1)模式中的 N 值可能会严重影响模型性能。

8d4baff0-0c2c-11ed-ba43-dac502259ad0.png

因此,研究者开始通过广泛的实验探索 N 的值对模型性能的影响。如表 2(中)所示,该研究在第三阶段构建了具有不同 N 值的模型。为了构建具有相似延迟的模型以进行公平比较,该研究在 N 值较小时堆叠 L 组 (NCB × N + NTB × 1) 模式。

如表 2 所示,第三阶段 N = 4 的模型实现了性能和延迟之间的最佳权衡。该研究通过在第三阶段扩大 (NCB × 4 + NTB × 1) × L 模式的 L 来进一步构建更大的模型。如表 2(下)所示,Base(L = 4)和 Large(L = 6)模型的性能相对于小模型有显著提升,验证了所提出的(NCB × N + NTB × 1)× L 模式的一般有效性。

最后,为了提供与现有 SOTA 网络的公平比较,研究者提出了三个典型的变体,即 Next-ViTS/B/L。

8d5fb716-0c2c-11ed-ba43-dac502259ad0.png

实验结果

ImageNet-1K 上的分类任务

最新的 SOTA 方法(例如 CNN、ViT 和混合网络)相比,Next-ViT 在准确性和延迟之间实现了最佳权衡,结果如下表 4 所示。

8d792f52-0c2c-11ed-ba43-dac502259ad0.png

ADE20K 上的语义分割任务

该研究将 Next-ViT 与 CNN、ViT 和最近一些混合架构针对语义分割任务进行了比较。如下表 5 所示,大量实验表明,Next-ViT 在分割任务上具有出色的潜力。

8d8c3cd2-0c2c-11ed-ba43-dac502259ad0.png

目标检测和实例分割

在目标检测和实例分割任务上,该研究将 Next-ViT 与 SOTA 模型进行了比较,结果如下表 6 所示。

8db638b6-0c2c-11ed-ba43-dac502259ad0.png

消融实验和可视化

为了更好地理解 Next-ViT,研究者通过评估其在 ImageNet-1K 分类和下游任务上的性能来分析每个关键设计的作用,并将输出特征的傅里叶谱和热图可视化,以显示 Next-ViT 的内在优势。

如下表 7 所示,NCB 在所有三个任务上实现了最佳延迟 / 准确性权衡。

8de954d0-0c2c-11ed-ba43-dac502259ad0.png

对于 NTB 块,该研究探讨了 NTB 的收缩率 r 对 Next-ViT 整体性能的影响,结果如下表 8 所示,减小收缩率 r 将减少模型延迟。

8e0ecd78-0c2c-11ed-ba43-dac502259ad0.png

此外,r = 0.75 和 r = 0.5 的模型比纯 Transformer (r = 1) 的模型具有更好的性能。这表明以适当的方式融合多频信号将增强模型的表征学习能力。特别是,r = 0.75 的模型实现了最佳的延迟 / 准确性权衡。这些结果说明了 NTB 块的有效性。

该研究进一步分析了 Next-ViT 中不同归一化层和激活函数的影响。如下表 9 所示,LN 和 GELU 虽然带来一些性能提升,但在 TensorRT 上的推理延迟明显更高。另一方面,BN 和 ReLU 在整体任务上实现了最佳的延迟 / 准确性权衡。因此,Next-ViT 统一使用 BN 和 ReLU,以便在现实工业场景中进行高效部署。

8e1b910c-0c2c-11ed-ba43-dac502259ad0.png

最后,该研究可视化了 ResNet、Swin Transformer 和 Next-ViT 的输出特征的傅里叶谱和热图,如下图 5(a) 所示。ResNet 的频谱分布表明卷积块倾向于捕获高频信号、难以关注低频信号;ViT 擅长捕捉低频信号而忽略高频信号;而Next-ViT 能够同时捕获高质量的多频信号,这显示了 NTB 的有效性。

8e31bc84-0c2c-11ed-ba43-dac502259ad0.png

此外,如图 5(b)所示,Next-ViT 能比 ResNet 和 Swin 捕获更丰富的纹理信息和更准确的全局信息,这说明 Next-ViT 的建模能力更强。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100742
  • 数据
    +关注

    关注

    8

    文章

    7014

    浏览量

    88982
  • 混频器
    +关注

    关注

    10

    文章

    679

    浏览量

    45675

原文标题:解锁CNN和Transformer正确结合方法,字节跳动提出有效的下一代视觉Transformer

文章出处:【微信号:CVSCHOOL,微信公众号:OpenCV学堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用ReMEmbR实现机器人推理与行动能力

    视觉语言模型(VLM)通过将文本和图像投射到同一个嵌入空间,将基础大语言模型(LLM)强大的语言理解能力与视觉 transformer(ViT)的视觉能力相结合。VLM 可以处理非结构化的多模态数据
    的头像 发表于 11-19 15:37 234次阅读
    使用ReMEmbR实现机器人推理与行动<b class='flag-5'>能力</b>

    HarmonyOS Next MQTT演示

    HarmonyOS Next MQTT演示
    发表于 11-07 16:54

    华为HarmonyOS NEXT 10月8日开启公测

    华为宣布,万众瞩目的HarmonyOS NEXT操作系统将于10月8日正式开启公测,标志着这一创新力作即将与广大用户见面。HarmonyOS NEXT作为华为自研操作系统的最新成果,不仅全面升级了系统内核,实现了跨设备无缝协同,更在性能优化、流畅度提升上取得了显著突破。
    的头像 发表于 09-24 15:41 808次阅读
    华为HarmonyOS <b class='flag-5'>NEXT</b> 10月8日开启公测

    OpenAI今年启动GPT Next计划

    在近期举行的KDDI峰会上,OpenAI Japan揭开了公司未来发展蓝图的一角,正式宣布将于2024年全面启动备受瞩目的GPT Next计划。这一计划的推出,标志着OpenAI在推动人工智能领域持续创新与突破的决心与实力。
    的头像 发表于 09-04 16:11 367次阅读

    OpenAI宣布启动GPT Next计划

     9月4日最新资讯,OpenAI Japan 在KDDI峰会上亮相,揭开了其即将问世的下一代AI模型的神秘面纱,并正式宣布了旨在2024年启动的GPT Next宏伟计划。
    的头像 发表于 09-04 14:51 598次阅读

    HarmonyOS NEXT Developer Beta1中的Kit

    从HarmonyOS NEXT Developer Preview1(API 11)版本开始,HarmonyOS SDK以Kit维度提供丰富、完备的开放能力,涵盖应用框架、系统、媒体、图形、应用服务
    发表于 06-26 10:47

    鸿蒙NEXT首次将AI能力融入系统

    在科技日新月异的今天,鸿蒙NEXT再次引领了行业的新潮流,首次将强大的AI能力深度融入系统之中。这一创新性的举措不仅为用户带来了前所未有的智能体验,更为整个行业树立了新的标杆。
    的头像 发表于 06-24 10:37 741次阅读

    HDC 2024上,HarmonyOS NEXT有哪些精彩亮点值得期待?

    究竟。 HarmonyOS NEXT焕然一新,重磅更新引领未来 据已公布的议程来看,大会首日的主题演讲将会围绕一系列令人瞩目的鸿蒙生态新成果、新体验、新开放能力进行展开。 4月份的时候,余承东在其微博上表示,HarmonyOS NEXT
    的头像 发表于 06-19 17:02 538次阅读
    HDC 2024上,HarmonyOS <b class='flag-5'>NEXT</b>有哪些精彩亮点值得期待?

    隧道BIM如何设计和建模

    、协作工作、优化设计,并最大程度地提高项目效率和质量。下面是关于如何设计和建模隧道BIM的详细内容: 1.数据采集与建模需求确定:在设计之初,需要收集并整合地形、地质、气象等方面的数据,并确定设计需求和目标。这些数据将为后续BI
    的头像 发表于 06-04 15:54 385次阅读

    在STM32H573VIT6的外接UART1-RX (PB7)端口,拉60uA为什么会导致MCU复位失效呢?

    在STM32H573VIT6的外接UART1-RX (PB7)端口,拉60uA为什么会导致MCU复位失效呢?
    发表于 05-23 06:46

    Flutter首次亮相Google Cloud Next大会

    Flutter 团队在近期首次参加了 Google Cloud Next 大会,这意味着 Flutter 在开发社区中的影响力正在日益增长。
    的头像 发表于 05-09 10:15 485次阅读

    jlink为什么识别不了STM32H743VIT6?

    最近调ST的STM32H743VIT6这个型号的芯片,碰到一个麻烦的问题,jlink识别不了芯片,导致一直无法下载程序,换了几个JLINK也是不行。请问一下STM32H7系列烧写与调试对JLINK有
    发表于 04-15 07:20

    STM32F427VIT6支持HyperBus或者Octal xSPI接口的PSRAM吗?

    STM32F427VIT6支持HyperBus或者Octal xSPI接口的PSRAM吗
    发表于 03-20 07:32

    STM32H743VIT6可以用NUCLEO-H743ZI板调试吗?

    问题1:最近要选择STM32H743VIT6这款芯片做实验项目,想要选择NUCLEO-H743ZI板子调试,但是板子mcu跟选型的mcu不完全一致,引脚数量也不一样,担心买回来调试不方便 问题2:板子有NUCLEO-H743ZI和NUCLEO-H743ZI2 二种型号,比较推荐哪一种?
    发表于 03-18 07:17

    淘宝与华为合作将基于HarmonyOS NEXT启动鸿蒙原生应用开发

    1月25日,淘宝与华为举办鸿蒙合作签约仪式,宣布将基于HarmonyOS NEXT启动鸿蒙原生应用开发。
    的头像 发表于 01-26 16:14 1121次阅读