0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于使用对比学习和条件变分自编码器的新颖框架ADS-Cap

深度学习自然语言处理 来源:深度学习自然语言处理 作者:深度学习自然语言 2022-11-03 14:30 次阅读

01

研究动机

在本文中,我们研究了图像描述(Image Captioning)领域一个新兴的问题——图像风格化描述(Stylized Image Captioning)。随着深度学习的发展,自动图像描述吸引了计算机视觉和自然语言处理领域研究者们的广泛关注。现在的图像描述模型可以为图像生成准确的文本表述,但在日常生活中,人们在表达想法的同时通常还会带有自己的情感或者风格,为此研究者们提出了图像风格化描述任务,希望模型在准确描述视觉内容的同时也能在描述中融入指定的语言风格。例如对于图1展示的图片,下面列出了传统的事实性描述和四种风格带有风格的描述,即幽默的、浪漫的、积极的和消极的,其中画红线的部分是体现风格的部分。图像风格化描述也有许多下游应用,例如在聊天机器人中生成更吸引用户的图像描述、以及在社交媒体上通过有吸引力的描述启发用户。

d14c6642-5b30-11ed-a3b6-dac502259ad0.png图1图像风格化描述(Stylized Image Captioning)任务

该任务的一个困难在于,收集图片和对应人工标注的风格化描述是代价高昂的,为此我们希望能够仅利用非成对的风格文本语料库,让图像描述模型在这些风格文本上自动学习语言风格知识。因此在训练时,我们提供事实性的图像-描述对数据集以及不包含图片的非成对的风格文本语料库,希望模型通过前者学习如何准确描述图像内容,通过后者学习如何在描述中融入指定语言风格。

在上述设定下,该任务的一个关键问题是:如何高效利用成对的事实性数据和非成对的风格数据。多数以往工作遵循传统的方法论:首先在大规模的成对事实性数据上预训练一个编码器-解码器模型,之后在非成对的风格数据上,以语言模型的方式微调解码器,例如StyleNet[1]和MSCap[2]。然而,我们认为在非成对风格数据上按照语言模型微调会导致模型过于关注语言风格,而忽略了生成描述和图像内容的一致性,因为在微调时解码器完全与视觉输入无关。这最终导致了图像风格化描述模型无法生成切合图像内容的描述。MemCap[3]提出利用场景图作为中间媒介,将成对和非成对数据的训练过程统一为根据场景图生成描述;然而,由于不同模态间的差异,文本和图像抽取的场景图依然是不一致的,这导致模型在测试时仍然无法很好地兼顾描述图像内容的准确性和融入语言风格。

另一个重要问题是,目前的工作基本上忽略了生成风格表达的多样性。如图2所示,对于三张相似场景的图片,基线模型生成了完全相同的风格短语“to meet his lover”,而当为一张图片生成多个风格化描述时,基线模型生成的风格表述也缺乏变化。这样的结果极大偏离了图像风格化描述任务的初衷:我们希望得到生动多样的描述,而不仅仅是几个固定的表达。我们认为造成这一问题的原因是风格语料规模较小,使得传统的编码器-解码器模型难以生成多样的风格模式。

d16c63de-5b30-11ed-a3b6-dac502259ad0.png图2:传统编码器-解码器框架难以建模多样化的风格表达

为了解决上面提到的两方面问题,我们提出了全新的ADS-Cap框架:通过对比学习对齐图像文本两种模态,使模型能够将成对数据和非成对数据统一为条件生成的模式,使得模型能够在准确描述图像内容的同时融入指定语言风格;通过条件变分自编码器架构,引导隐空间记忆多种多样的风格表达,有效增强生成时的多样性。

02

贡献

1.我们提出了一个新颖的使用对比学习和条件变分自编码器的图像风格化描述框架ADS-Cap。

2.当使用非成对风格文本语料库训练时,对比学习模块有效地提升了生成描述与图像内容的一致性。

3.条件变分自编码器框架通过在隐空间中记忆风格表达并在测试时采样,显著提升了图像风格化描述生成的多样性。

4.在两个benchmark图像风格化描述数据集上的实验结果表明,我们的方法在准确性和多样性上达到SOTA。

03

解决方案

整体模型架构如下图3所示,主要由一个条件变分自编码器框架和一个对比学习模块组成。蓝色部分代表模型的输入和输出,黄色部分代表模型的可学习参数,红色部分是我们模型编码风格表达的隐空间。

d1818e58-5b30-11ed-a3b6-dac502259ad0.png图3:ADS-Cap框架示意图

3.1对比学习

我们首先通过一个目标对象词词表(来自VG数据集),从非成对数据的描述中抽取目标对象词,这样我们就能够将成对数据和非成对数据的训练统一为条件生成的模式:对于成对的事实性数据,我们根据图像特征生成事实性的描述;对于非成对的风格数据,我们根据目标对象词生成风格化的描述。然而,在测试时,我们需要根据图像特征生成风格化的描述,如下图4黄色箭头所示。为此我们的解决方案是,使用对比学习将图像特征和目标对象词特征编码到同一个共享的多模态特征空间,从而对于解码器来说,根据图像生成和根据目标对象词生成将不再有差异。

d194888c-5b30-11ed-a3b6-dac502259ad0.png图4:使用非成对风格文本语料库带来的问题

具体而言,对比学习损失最大化一个batch内匹配样本间的余弦相似度,同时最小化不匹配样本间的余弦相似度[4],从而对齐图像和目标对象词两种模态的特征到同一个共享的多模态特征空间中。

d1aacf66-5b30-11ed-a3b6-dac502259ad0.png

3.2条件变分自编码器框架

为了提高生成描述的多样性,我们使用条件变分自编码器(CVAE)代替了传统的编码器-解码器架构,主要是因为CVAE在许多生成任务上多样性表现较好,而且对于图像风格化描述任务来说,可以利用隐空间自动记忆多种多样的风格表达,从而在测试时在隐空间不同区域采样就可以生成带有不同风格短语的描述。如图5所示,CVAE的编码器将样本的风格表达编码到隐变量,解码器通过该隐变量辅助尝试还原输入样本。之后,CVAE的训练原理也就是KL散度损失和重建损失使得各种各样的风格表达能够均匀地分布在隐空间中。

除此之外,我们在隐变量上增加了一个风格分类器,以隐变量为输入,预测该隐变量对应样本的风格。这样一个辅助损失有两方面好处,一个是可以引导隐空间编码与风格相关的信息;另外这个单层神经网络+softmax的分类器实际上也将整个隐空间按风格划分了,这样在测试时,我们就可以通过拒绝采样得到我们想要风格的隐变量。

d1b943f2-5b30-11ed-a3b6-dac502259ad0.jpg图5:条件变分自编码器框架及风格分类器

04

实验

我们在图像风格化描述的两个benchmark数据集FlickrStyle10K[1]和SentiCap[5]上进行实验。前者包含幽默和浪漫两种风格,各7000张图片和对应的风格化描述;后者包含积极和消极两种风格,共2360张图片以及9513个风格化描述。数据集划分以及实验设定上,我们与MSCap[2]和MemCap[3]保持一致。

4.1内容准确性&风格准确性

在性能方面,我们首先比较了之前工作采用的内容准确率和风格准确率。其中内容准确率采用Bleu、CIDEr这类计算和参考句子间n元组重复度的指标,风格准确率则使用生成句子的困惑度ppl、以及一个预训练好的风格判别器给出的风格准确率cls。可以看到如表1所示,我们的方法相比之前工作在几乎所有指标上取得了显著的提升,特别是在FlickrStyle这个风格更复杂的数据集上。这也侧面证实了以往工作忽略了生成描述和图像内容一致性这个问题,而我们的方法能够在融入语言风格的同时保持和图像内容的一致性。

表1:内容准确性和风格准确性d1ca81d0-5b30-11ed-a3b6-dac502259ad0.png

4.2多样性

我们比较将我们的方法与编码器-解码器基线模型在两类多样性上进行了比较。图6展示了两类多样性以及我们方法的效果。

d1dcb1e8-5b30-11ed-a3b6-dac502259ad0.png图6:两类多样性及样例展示

第一类是图像间的多样性(Diversity across Images),也就是我们希望同一场景下不同图像生成的风格化描述应该是多样的。为此我们考虑了:1.唯一性,不同的风格短语战全部风格短语的比例;2.均匀性,风格词概率分布的熵(下式)。从下表2结果中可以看到,在七种典型场景下(各种人物以及动物),我们的CVAE模型均显著高于编码器-解码器基线,但距离人类的表现还有不少距离。

d1f805e2-5b30-11ed-a3b6-dac502259ad0.png

表2:相似场景下风格化描述多样性d206200a-5b30-11ed-a3b6-dac502259ad0.png

第二类是经典的为一张图像生成多个风格化描述的多样性。为此我们考虑了图像描述领域中量此类多样性的两个指标:Distinct和Div-n,前者计算不同的风格短语的比例,后者计算不同的n元组的比例。从表2中可以看到,我们的方法同样优于基线模型。

表3:为一张图像生成多个风格化描述的多样性d2272304-5b30-11ed-a3b6-dac502259ad0.png

4.3效果分析

为了展示分析对比学习和条件变分自编码器框架的效果,我们进行了一些可视化。

图7给出了使用对比学习前后的特征空间分析,绿色代表的是目标对象词特征,红色是图像特征。可以看到对比学习很好地对齐了两类特征(例如狗的目标对象词特征和对应图像特征十分相近),从而成功统一了成对事实性数据和非成对风格数据的训练。

d2408b78-5b30-11ed-a3b6-dac502259ad0.png图7:对比学习效果

如图8所示,训练好的CVAE隐空间实际上被按照风格划分为不同的区域,并且在每个区域中编码了多种多样的风格表达,例如对于浪漫的风格,这里展示了其中几个点对应的风格表达,有enjoying the beauty of nature、with full joy等等;因此,测试时在每个区域中采样即可得到多样化的风格描述。

d25a58e6-5b30-11ed-a3b6-dac502259ad0.png图8:条件变分自编码器隐空间

05

总结

本工作为图像风格化描述任务提出了一个使用对比学习和条件变分自编码器的新颖框架ADS-Cap。我们的模型能够高效地利用非成对风格文本语料库训练,并能够生成视觉内容准确、文本风格可控且风格表达多样的图像风格化描述。在两个图像风格化描述benchmark上的实验证明了我们方法的有效性。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编码器
    +关注

    关注

    45

    文章

    3640

    浏览量

    134466
  • 模型
    +关注

    关注

    1

    文章

    3238

    浏览量

    48824
  • 自然语言
    +关注

    关注

    1

    文章

    288

    浏览量

    13348

原文标题:NLPCC'22 | 一种兼具准确性和多样性的图像风格化描述生成框架

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于自编码器的异常小区检测

    ;另一个是正则化损失(regularization loss),它有助于学习具有良好结构的潜在空间,并可以降低在训练数据上的过拟合。  2.3基于自编码器的异常小区检测  基于
    发表于 12-03 15:06

    是什么让自编码器成为如此成功的多媒体生成工具呢?

    标准自编码器学习生成紧凑的数据表达并重建输入数据,然而除了像去噪自编码器等为数不多的应用外,它的应用却极其有限。其根本原因在于自编码器将输入转换为隐含空间中的表达并不是连续的,使得其
    的头像 发表于 04-19 16:48 1.3w次阅读
    是什么让<b class='flag-5'>变</b><b class='flag-5'>分</b><b class='flag-5'>自编码器</b>成为如此成功的多媒体生成工具呢?

    自编码器是什么?有什么用

    自动编码器是一种无监督的神经网络模型,它可以学习到输入数据的隐含特征,这称为编码(coding),同时用学习到的新特征可以重构出原始输入数据,称之为解码(decoding)。
    的头像 发表于 08-02 16:47 1.8w次阅读

    自编码器介绍

    自编码器若仅要求X≈Y,且对隐藏神经元进行稀疏约束,从而使大部分节点值为0或接近0的无效值,便得到稀疏自动编码算法。一般情况下,隐含层的神经元数应少于输入X的个数,因为此时才能保证这个网络结构的价值。
    发表于 06-11 15:07 4929次阅读

    稀疏自编码器及TensorFlow实现详解

     稀疏自编码器(又称稀疏自动编码机)中,重构误差中添加了一个稀疏惩罚,用来限定任何时刻的隐藏层中并不是所有单元都被激活。如果 m 是输入模式的总数,那么可以定义一个参数 ρ_hat,用来表示每个隐藏层单元的行为(平均激活多少次)。
    发表于 06-11 16:45 3853次阅读
    稀疏<b class='flag-5'>自编码器</b>及TensorFlow实现详解

    基于自编码器的海面舰船轨迹预测算法

    海面舰船的轨迹预测对预测精度和实时性具有较高要求,而舰船轨迹数据特征的高复杂度特性,导致传统预测算法精度低、耗时长,难以达到良好的预测效果。为此,提出一种基于自编码器的海面舰船轨迹预测算法。将
    发表于 03-30 09:53 5次下载
    基于<b class='flag-5'>变</b><b class='flag-5'>分</b><b class='flag-5'>自编码器</b>的海面舰船轨迹预测算法

    自编码器基础理论与实现方法、应用综述

    自编码器是深度学习中的一种非常重要的无监督学习方法,能够从大量无标签的数据中自动学习,得到蕴含在数据中的有效特征。因此,自编码方法近年来受到
    发表于 03-31 11:24 9次下载
    <b class='flag-5'>自编码器</b>基础理论与实现方法、应用综述

    一种多通道自编码器深度学习的入侵检测方法

      针对现有的入侵检测方法在检测准确率和误报率方面存在的不足,提岀了一种多通道自编码器深度学习的入侵检测方法。该方法分为无监督学习和有监督学习两个阶段:首先分别采用正常流量和攻击流量训
    发表于 04-07 15:23 7次下载
    一种多通道<b class='flag-5'>自编码器</b>深度<b class='flag-5'>学习</b>的入侵检测方法

    一种基于自编码器的人脸图像修复方法

    基于卷积神经网络的人脸图像修复威廉希尔官方网站 在刑事侦破、文物保护及影视特效等领域有着重要的应用。但现有方法存在着图像修复结果不够清晰以及结果多样化不足等缺点,为此,提出了一种基于自编码器的人脸图像修复
    发表于 04-21 10:51 10次下载
    一种基于<b class='flag-5'>变</b><b class='flag-5'>分</b><b class='flag-5'>自编码器</b>的人脸图像修复方法

    基于自编码器的网络表示学习方法

    ,将这些信息融入到网络表示学习过程中,有助于提升下游任务的性能。但是针对不同的应用场景,结构和属性信息并不总是线性相关,而且它们都是高度非线性的数据。提岀一种基于自编码器的网络表示
    发表于 05-12 14:50 27次下载

    结合深度学习自编码器端到端物理层优化方案

    5G规模化商用可提供髙速低延时的通信服务,但由于逐块设计的通信模型可解释性程度较低,增加了其物理层优化的复杂度。针对该问题,利用深度学习在结构化信息表示和数据提取上的优势,在其基础上提出一种自编码器
    发表于 05-24 15:18 7次下载

    自编码器神经网络应用及实验综述

    自编码器是深度学习中的一种非常重要的无监督学习方法,能够从大量无标签的数据中自动学习,得到蕴含在数据中的有效特征。因此,自编码方法近年来受到
    发表于 06-07 16:38 7次下载

    基于交叉熵损失函欻的深度自编码器诊断模型

    对小类别样本的学习。尤其当故障样本数极少时,此问题更突岀。针对这饣问题,提岀一种基于改进交叉熵损失函欻的深度自编码器的诊断模型,首先提取振动数据的小波包能量,其次将小波包能量输入到深度自编码器中,最后通过SⅥa分类
    发表于 06-18 16:49 9次下载

    自编码器 AE(AutoEncoder)程序

    原文链接 1.程序讲解 (1)香草编码器 在这种自编码器的最简单结构中,只有三个网络层,即只有一个隐藏层的神经网络。它的输入和输出是相同的,可通过使用Adam优化和均方误差损失函数,来学习
    的头像 发表于 01-11 17:29 1357次阅读
    <b class='flag-5'>自编码器</b> AE(AutoEncoder)程序

    自编码器的原理和类型

    自编码器(Autoencoder, AE)是一种无监督学习的神经网络模型,它通过编码器和解码的组合,实现了对输入数据的压缩和重构。自编码器
    的头像 发表于 07-09 11:25 1186次阅读