0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

LeCun世界模型首项研究来了:自监督视觉,已开源

AI智胜未来 来源:机器之心 2023-06-14 16:53 次阅读

AI 像人类一样学习和推理,这是人工智能迈向人类智能的重要一步。图灵奖得主 Yann LeCun 曾提出自监督 + 世界模型的解决方案,如今终于有了第一个实实在在的视觉模型。

去年初,Meta 首席 AI 科学家 Yann LeCun 针对「如何才能打造出接近人类水平的 AI」提出了全新的思路。他勾勒出了构建人类水平 AI 的另一种愿景,指出学习世界模型(即世界如何运作的内部模型)的能力或许是关键。这种学到世界运作方式内部模型的机器可以更快地学习、规划完成复杂的任务,并轻松适应不熟悉的情况。

LeCun 认为,构造自主 AI 需要预测世界模型,而世界模型必须能够执行多模态预测,对应的解决方案是一种叫做分层 JEPA(联合嵌入预测架构)的架构。该架构可以通过堆叠的方式进行更抽象、更长期的预测。

6 月 9 日,在 2023 北京智源大会开幕式的 keynote 演讲中,LeCun 又再次讲解了世界模型的概念,他认为基于自监督的语言模型无法获得关于真实世界的知识,这些模型在本质上是不可控的。

f37b7b1e-0a8e-11ee-962d-dac502259ad0.png

今日,Meta 推出了首个基于 LeCun 世界模型概念的 AI 模型。该模型名为图像联合嵌入预测架构(Image Joint Embedding Predictive Architecture, I-JEPA),它通过创建外部世界的内部模型来学习, 比较图像的抽象表示(而不是比较像素本身)。

I-JEPA 在多项计算机视觉任务上取得非常不错的效果,并且计算效率远高于其他广泛使用的计算机视觉模型。此外 I-JEPA 学得的表示也可以用于很多不同的应用,无需进行大量微调。

f3e9fbde-0a8e-11ee-962d-dac502259ad0.png

举个例子,Meta 在 72 小时内使用 16 块 A100 GPU 训练了一个 632M 参数的视觉 transformer 模型,还在 ImageNet 上实现了 low-shot 分类的 SOTA 性能,其中每个类只有 12 个标签样本。其他方法通常需要 2 到 10 倍的 GPU 小时数,并在使用相同数据量训练时误差率更高。

相关的论文《Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture》已被 CVPR 2023 接收。当然,所有的训练代码和模型检查点都将开源。

f3ff8ca6-0a8e-11ee-962d-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2301.08243.pdfGitHub

地址:https://t.co/DgS9XiwnMz

通过自监督学习获取常识型知识

I-JEPA 基于一个事实,即人类仅通过被动观察就可以了解关于世界的大量背景知识,这些常识信息被认为是实现智能行为的关键。

通常,AI 研究人员会设计学习算法来捕获现实世界的常识,并将其编码为算法可访问的数字表征。为了高效,这些表征需要以自监督的方式来学习,即直接从图像或声音等未标记的数据中学习,而不是从手动标记的数据集中学习。

在高层级上,JEPA 的一个输入中某个部分的表征是根据其他部分的表征来预测的。同时,通过在高抽象层次上预测表征而不是直接预测像素值,JEPA 能够直接学习有用的表征,同时避免了生成模型的局限性。

相比之下,生成模型会通过删除或扭曲模型输入的部分内容来学习。然而,生成模型的一个显著缺点是模型试图填补每一点缺失的信息,即使现实世界本质上是不可预测的。因此,生成模型过于关注不相关的细节,而不是捕捉高级可预测的概念。

f43b37a6-0a8e-11ee-962d-dac502259ad0.png

自监督学习的通用架构,其中系统学习捕获其输入之间的关系。

迈向能力广泛的 JEPA 的第一步

I-JEPA 的核心思路是以更类似于人类理解的抽象表征来预测缺失信息。与在像素 /token 空间中进行预测的生成方法相比,I-JEPA 使用抽象的预测目标,潜在地消除了不必要的像素级细节,从而使模型学习更多语义特征。

另一个引导 I-JEPA 产生语义表征的核心设计是多块掩码策略。该研究使用信息丰富的上下文来预测包含语义信息的块,并表明这是非常必要的。

f48cbba8-0a8e-11ee-962d-dac502259ad0.png

I-JEPA 使用单个上下文块来预测源自同一图像的各种目标块的表征。

I-JEPA 中的预测器可以看作是一个原始的(和受限的)世界模型,它能够从部分可观察的上下文中模拟静态图像中的空间不确定性。更重要的是,这个世界模型是语义级的,因为它预测图像中不可见区域的高级信息,而不是像素级细节。

f4aa8b88-0a8e-11ee-962d-dac502259ad0.png

预测器如何学习建模世界的语义。对于每张图像,蓝框外的部分被编码并作为上下文提供给预测器。然后预测器输出它期望在蓝框内区域的表示。为了可视化预测,Meta 训练了一个生成模型, 它生成了由预测输出表示的内容草图,并在蓝框内显示样本输出。很明显,预测器识别出了应该填充哪些部分的语义(如狗的头部、鸟的腿、狼的前肢、建筑物的另一侧)。

为了理解模型捕获的内容,Meta 训练了一个随机解码器,将 I-JEPA 预测的表示映射回像素空间,这展示出了探针操作后在蓝框中进行预测时的模型输出。这种定性评估表明,I-JEPA 正确捕获了位置不确定性,并生成了具有正确姿态的高级对象部分(如狗的头部、狼的前肢)。

简而言之,I-JEPA 能够学习对象部分的高级表示,而不会丢弃它们在图像中的局部位置信息。

高效率、强性能

I-JEPA 预训练在计算上也很高效,在使用更多计算密集型数据增强来生成多个视图时不会产生任何开销。目标编码器只需要处理图像的一个视图,上下文编码器只需要处理上下文块。

实验发现,I-JEPA 在不使用手动视图增强的情况下学习了强大的现成语义表示,具体可见下图。此外 I-JEPA 还在 ImageNet-1K 线性探针和半监督评估上优于像素和 token 重建方法。

f4f32668-0a8e-11ee-962d-dac502259ad0.png

ImageNet-1k 数据集上的线性评估。

I-JEPA 还能与以往在语义任务上依赖手动数据增强的方法竞争。相比之下,I-JEPA 在对象计数和深度预测等低级视觉任务上取得了更好的性能。通过使用较小刚性归纳偏置的更简单模型,I-JEPA 适用于更广泛的任务集合。

f51ac466-0a8e-11ee-962d-dac502259ad0.png

low shot 分类准确性:使用 1% 标签时 ImageNet-1k 上的半监督评估结果(每类只有 12 张标签图像)。

AI 智能向人类水平更近了一步

I-JEPA 展示了无需通过手动图像变换来编码额外知识时,学习有竞争力的现成图像表示的潜力。继续推进 JEPA 以从更丰富模态中学习更通用世界模型将变得特别有趣,比如人们从一个短上下文中对视频中的将来事件做出长期空间和时间预测,并利用音频或文本 prompt 对这些预测进行调整。

Meta 希望将 JEPA 方法扩展到其他领域,比如图像 - 文本配对数据和视频数据。未来,JEPA 模型可以在视频理解等任务中得到应用。这是应用和扩展自监督方法来学习更通用世界模型的重要一步。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4740

    浏览量

    128951
  • AI
    AI
    +关注

    关注

    87

    文章

    30897

    浏览量

    269113
  • 模型
    +关注

    关注

    1

    文章

    3244

    浏览量

    48845

原文标题:LeCun世界模型首项研究来了:自监督视觉,像人一样学习和推理,已开源

文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    “悟道3.0”系列大模型全面开源,有助于AI应用普及!

    新阶段,此次发布的一系列成果包括“悟道·天鹰”(Aquila)语言大模型系列、天秤(FlagEval)开源模型评测体系与开放平台、“悟道 · 视界”视觉
    的头像 发表于 06-14 00:06 1951次阅读
    “悟道3.0”系列大<b class='flag-5'>模型</b>全面<b class='flag-5'>开源</b>,有助于AI应用普及!

    为什么生成模型值得研究

    模型似乎只提供了更多的图像,而世界上并不缺少图像。研究生成模型有几个原因,包括: ●从生成模型中进行训练和采样是对我们表示和操作高维概率分
    发表于 09-15 06:03

    TextTopicNet模型:以监督学习方式学习区别视觉特征

    大规模带标注的数据集的出现是深度学习在计算机视觉领域取得巨大成功的关键因素之一。然而,监督式学习存在一个主要问题:过于依赖大规模数据集,而数据集的收集和手动数据标注需要耗费大量的人力成本。
    的头像 发表于 07-31 17:50 1w次阅读
    TextTopicNet<b class='flag-5'>模型</b>:以<b class='flag-5'>自</b><b class='flag-5'>监督</b>学习方式学习区别<b class='flag-5'>视觉</b>特征

    监督学习与Transformer相关论文

    将在明年5月4日举行,目前,本次大会投稿已经结束,最后共有3013篇论文提交。ICLR 采用公开评审机制,任何人都可以提前看到这些论文。 为了分析最新研究动向,我们精选了涵盖监督
    的头像 发表于 11-02 15:50 2693次阅读
    <b class='flag-5'>自</b><b class='flag-5'>监督</b>学习与Transformer相关论文

    基于人工智能的监督学习详解

    监督学习让 AI 系统能够从很少的数据中学习知识,这样才能识别和理解世界上更微妙、更不常见的表示形式。
    的头像 发表于 03-30 17:09 5988次阅读
    基于人工智能的<b class='flag-5'>自</b><b class='flag-5'>监督</b>学习详解

    人的大脑和监督学习模型的相似度有多高?

    麦吉尔大学和魁北克人工智能研究所(Mila)的计算神经科学家布莱克-理查兹(Blake Richards)说:「我认为毫无疑问,大脑所做的90%都是监督学习。」
    的头像 发表于 08-19 09:50 872次阅读

    基于视觉Transformer的监督视频异常检测架构进行肠息肉检测的研究

    本文提出一种有效的基于视觉Transformer的弱监督视频异常检测架构来实现精准检测结直肠息肉。这也是篇利用弱监督视频标签来进行肠息肉检测的研究
    的头像 发表于 09-27 11:15 1761次阅读

    LeCun新作:全面综述下一代「增强语言模型

    最近图灵奖得主Yann LeCun参与撰写了一篇关于「增强语言模型」的综述,回顾了语言模型与推理技能和使用工具的能力相结合的工作,并得出结论,这个新的研究方向有可能解决传统语言
    的头像 发表于 03-03 11:03 1019次阅读

    LeCun世界模型首个研究监督视觉像人一样学习和推理!

    今日,Meta 推出了首个基于 LeCun 世界模型概念的 AI 模型。该模型名为图像联合嵌入预测架构(Image Joint Embedd
    的头像 发表于 06-15 15:47 360次阅读
    <b class='flag-5'>LeCun</b><b class='flag-5'>世界</b><b class='flag-5'>模型</b>首个<b class='flag-5'>研究</b>!<b class='flag-5'>自</b><b class='flag-5'>监督</b><b class='flag-5'>视觉</b>像人一样学习和推理!

    Meta开源I-JEPA,“类人”AI模型

    Meta 宣布推出一个全新的 AI 模型 Image Joint Embedding Predictive Architecture (I-JEPA),可通过对图像的自我监督学习来学习世界的抽象表征
    的头像 发表于 06-18 17:47 1091次阅读
    Meta<b class='flag-5'>开源</b>I-JEPA,“类人”AI<b class='flag-5'>模型</b>

    「悟道·视界」视觉模型系列,6领先成果威廉希尔官方网站 详解

    日前,智源「悟道·视界」通用视觉模型系列,带来计算机视觉多任务处理能力方面的6国际领先威廉希尔官方网站 ,迎接通用视觉智能曙光降临,包括: 在多模态序
    的头像 发表于 06-27 16:40 856次阅读

    基础模型监督预训练的数据之谜:大量数据究竟是福还是祸?

    大型语言模型如 ChatGPT 的成功彰显了海量数据在捕捉语言模式和知识方面的巨大潜力,这也推动了基于大量数据的视觉模型研究。在计算视觉领域
    的头像 发表于 07-24 16:55 567次阅读
    基础<b class='flag-5'>模型</b><b class='flag-5'>自</b><b class='flag-5'>监督</b>预训练的数据之谜:大量数据究竟是福还是祸?

    NeurIPS 2023 | 全新的监督视觉预训练代理任务:DropPos

    工作, 目前 DropPos 已被 NeurIPS 2023 接收,相关代码开源,有任何问题欢迎在 GitHub 提出。 TL;DR 我们提出了一种全新的监督代理任务 DropPo
    的头像 发表于 10-15 20:25 530次阅读
    NeurIPS 2023 | 全新的<b class='flag-5'>自</b><b class='flag-5'>监督</b><b class='flag-5'>视觉</b>预训练代理任务:DropPos

    视觉模型weak-to-strong的实现

    几天前,OpenAI「超级对齐」(Superalignment)团队发布了成立以来的篇论文,声称开辟了对超人类模型进行实证对齐的新研究方向。GPT-2能监督GPT-4,Ilya带头O
    的头像 发表于 01-08 11:07 442次阅读
    <b class='flag-5'>视觉</b><b class='flag-5'>模型</b>weak-to-strong的实现

    机器人基于开源的多模态语言视觉模型

    ByteDance Research 基于开源的多模态语言视觉模型 OpenFlamingo 开发了开源、易用的 RoboFlamingo 机器人操作
    发表于 01-19 11:43 422次阅读
    机器人基于<b class='flag-5'>开源</b>的多模态语言<b class='flag-5'>视觉</b>大<b class='flag-5'>模型</b>