0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于IMU光度损失和跨传感器光度损失 以提供稠密的监督和绝对尺度

lhl545545 来源:GiantPandaCV 作者:GiantPandaCV 2022-09-07 09:50 次阅读

0. 引言

虽然近年来无监督单目深度学习取得了很大的进展,但仍然存在一些基本问题。首先,目前的方法存在尺度模糊性问题,因为反推过程对于深度和平移来说相当于任意尺度因子。其次,光度误差对照明变化和移动物体敏感。此外,尽管在无监督学习框架下已经为光度误差图引入了不确定性,但自我运动的不确定性度量仍然是重要的。在2022 ECCV论文"Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular Depth Estimation by Integrating IMU Motion Dynamics",作者提出了一种感知框架,通过集成视觉和IMU来进行真实尺度估计,算法已经开源。

1. 论文信息

2. 摘要

近年来,无监督单目深度和自我运动估计引起了广泛的研究关注。尽管当前的方法已经达到了很高的尺度精度,但是由于利用单目序列进行训练所固有的尺度模糊性,它们通常不能学习真实的尺度度量。在这项工作中,我们解决了这个问题,并提出了DynaDepth,一种新的尺度感知框架,集成了视觉和IMU运动动力学的信息。

具体来说,我们首先提出了IMU光度损失和跨传感器光度一致性损失,以提供稠密的监督和绝对尺度。为了充分利用来自两个传感器的互补信息,我们进一步驱动一个可微分的以相机为中心的扩展卡尔曼滤波器(EKF),以在观察视觉测量时更新IMU预积分。

此外,EKF公式使得能够学习自我运动不确定性测量,这对于无监督的方法来说不是微不足道的。通过在训练过程中利用IMU,DynaDepth不仅学习了绝对尺度,还提供了更好的泛化能力和对光照变化和移动物体等视觉退化的鲁棒性。我们通过在KITTI和Make3D数据集上进行大量实验和仿真,验证了DynaDepth的有效性。

3. 算法分析

如图1所示是作者提出的单目尺度感知深度估计和自我运动预测方法DynaDepth的概述,该系统在以相机为中心的扩展卡尔曼滤波器(EKF)框架下,将IMU运动动力学显式集成到基于视觉的系统中。DynaDepth旨在联合训练尺度感知深度网络Md,以及融合IMU和相机信息的自我运动网络Mp。

ffe9cb20-2df4-11ed-ba43-dac502259ad0.png

图1 DynaDepth概述

DynaDepth通过使用IMU的估计运动执行反向操作,来构建尺度感知的IMU光度损失,并使用基于外观的光度损失。为了校正由光照变化和运动物体引起的误差,作者进一步提出了跨传感器光度一致性损失,分别使用网络预测和IMU集成自我运动的合成目标视图。

与积累来自初始帧的重力和速度估计的经典VIO-SLAM系统不同,对于无监督深度估计方法,这两个度量是未知的。为了解决这个问题,DynaDepth训练两个超轻型网络,这两个网络将两个连续帧作为输入,并在训练期间预测以相机为中心的重力和速度。

考虑到IMU和相机提供两种互补的独立传感模式,作者进一步为DynaDepth导出了一个可区分的以相机为中心的EKF框架,以充分利用这两种传感器。当从相机观察新的自我运动预测时,DynaDepth根据IMU误差状态和视觉预测的协方差更新IMU预积分。

这样一方面可以通过视觉来纠正IMU噪声偏差,另一方面还提供了一种学习预测自我运动的不确定性测量的方式,这对于最近出现的将深度学习纳入经典SLAM系统以实现学习、几何和优化的协同作用的研究方法是有益的。

综上所述,作者所做工作的主要贡献如下:

(1) 提出了IMU光度损失和交叉传感器光度一致性损失,以提供稠密的监督和绝对尺度;

(2) 为传感器融合推导了一个可微分的以相机为中心的EKF框架;

(3) 通过在KITTI和Make3D数据集上的大量实验和仿真证明了DynaDepth有利于:<1>绝对尺度的学习;<2>泛化能力;<3>对诸如照明变化和移动物体的视觉退化的鲁棒性;<4>自我运动不确定性度量的学习。

3.1 IMU光度损失

如果直接将训练损失写为IMU预积分项上的残差,那么就只能为自我运动网络提供稀疏的监督,作者提出了一种IMU光度损失:

0014384c-2df5-11ed-ba43-dac502259ad0.png

其中K和N是相机的固有特性,yi和zi是图像中的像素坐标系以及由Md预测的深度,I(yi)是yi处的像素强度,ψ()表示深度归一化函数,SSIM()表示结构相似性索引

3.2 交叉传感器光度一致性损失

作者进一步提出跨传感器光度一致性损失来对齐IMU预积分和Mp的自我运动,而不是直接比较。对于自我运动,作者使用反向图像之间的光度误差,这为Md和Mp提供了更密集的监督信号:

0030d9ca-2df5-11ed-ba43-dac502259ad0.png

此外,DynaDepth中的总训练损失Ltotal还包括基于视觉的光度损失Lvis、平滑度损失Ls以及弱L2范数损失Lvg:

004b733e-2df5-11ed-ba43-dac502259ad0.png

3.3 以相机为中心的EKF融合框架

为了充分利用互补的IMU和相机,作者提出了一个以相机为中心的EKF框架。与之前将EKF集成到基于深度学习的框架中以处理IMU数据的方法不同,DynaDepth不需要真实的自我运动和速度来获得每个IMU帧的对齐速度和重力,而是提出{Mv,Mg}来预测。在论文中,作者推导了该EKF的传播和更新过程。

EKF传播:设ck表示时刻tk的相机帧,bt表示tk到tk+1之间的IMU帧,误差状态为:

0065f0ec-2df5-11ed-ba43-dac502259ad0.png

EKF利用一阶泰勒近似将状态转移模型在每个时间步线性化进行传播,误差状态的连续时间传播模型为:δx*bt = Fδxbt + Gn,其中F和G为:

0083fa24-2df5-11ed-ba43-dac502259ad0.png

EKF更新公式为:

009e24b2-2df5-11ed-ba43-dac502259ad0.png

DynaDepth将观测量定义为Mp预测的自我运动,为了完成以相机为中心的EKF更新步骤,可推导h和H为:

00ae937e-2df5-11ed-ba43-dac502259ad0.png

4. 实验

作者评估了DynaDepth在KITTI上的有效性,以及在Make3D上的泛化能力。此外,作者对IMU损耗、EKF框架、学习到的自我运动不确定性以及对光照变化和移动物体的鲁棒性进行了消融实验。在具体试验阶段,损失函数的四个权重依次为0.001,0.5,0.01,0.001,初始学习率为1e-4,在一个NVIDIA V100 GPU上训练了30轮。

4.1 KITTI上的尺度感知深度估计

如表1所示是将DynaDepth与最新的单目深度估计方法进行比较的结果,作者为了公平比较只给出了图像分辨率为640x192和尺寸适中的编码器所取得的结果,即ResNet18(R18)和ResNet50(R50)。

表1 对KITTI进行的每张图像的重定标深度评估

00cb94e2-2df5-11ed-ba43-dac502259ad0.png

除了标准的深度评价指标之外,作者还报告了重尺度因子的均值和标准误差来证明尺度感知能力。值得注意的是DynaDepth达到了一个近乎完美的绝对尺度,在尺度感知方面甚至R18版本也优于G2S R50 ,而后者使用了更重的编码器。

如表2所示是对比结果,并与利用GPS信息构造速度约束的PackNet-SfM和G2S进行了比较。在这种情况下,DynaDepth实现了所有度量指标的最佳性能,为单目方法的非尺度深度评估设定了一个新的基准。为了更好的说明,图1(b)给出了包含IMU和不包含IMU的比例直方图。

表2 在KITTI进行深度评估结果

00ef21f0-2df5-11ed-ba43-dac502259ad0.png

4.2 Make3D上的泛化

作者利用KITTI上训练的模型进一步检验DynaDepth在Make3D上的泛化能力,图1(c)给出了一个定性示例,其中没有IMU的模型在玻璃和阴影区域失效,而DynaDepth实现了可区分的预测。定量结果如表3所示,DynaDepth取得了相当好的尺度比例,表明DynaDepth学习的尺度能力可以很好地推广到不可观测的数据集。

此外,仅利用陀螺仪和加速度计IMU信息的DynaDepth取得了最好的泛化效果。作者解释了可能的原因:首先,由于建模能力的提高,完整模型可能会过拟合KITTI数据集。第二,因为Mv和Mg都以图像作为输入,性能退化可能是由于视觉数据的域间隙造成的,这也解释了这种情况下G2S的尺度损失。

此外,实验也表明EKF有明显的提高泛化能力,可能是因为EKF融合框架考虑了不确定性,以更合理的方式融合了可泛化IMU动力学和特定视觉信息。

表3 Make 3d上的泛化结果

010ca61c-2df5-11ed-ba43-dac502259ad0.png

4.3 消融研究

作者对KITTI进行了消融研究,并关注IMU相关损失、EKF融合框架和学习自我运动不确定性对KITTI的影响,结果如表4所示。此外,还设计了interwetten与威廉的赔率体系 实验来验证DynaDepth对光照变化和运动物体等视觉退化的鲁棒性。

表4 KITTI上IMU相关损失和EKF融合框架的消融结果

01264c2a-2df5-11ed-ba43-dac502259ad0.png

结果显示,IMU光度损失具有重要作用。但仅用IMU光度损失学习的只是一个粗略的尺度。将IMU光度损失和交叉传感器光度损失结合在一起,可以提高准确性,Lvg的使用进一步增强了评价结果。

针对光照变化和运动物体,这两种情况违反了光度损失的底层假设。作者通过在0.5范围内随机交替的图像对比度来模拟光照变化,通过随机插入三个150x150的黑色方块来模拟运动物体,结果如表5所示。在光照变化下,Mono deep2的精度按预期下降,DynaDepth则在一定程度上挽救了精度,保持了正确的绝对尺度。

在这种情况下,EKF几乎改进了所有的度量指标,使用EKF和Lvg在AbsRel上达到了最优。然而,没有Lvg的模型在大多数度量指标上都取得了最好的性能,其原因可能是Lvg对视觉数据的依赖性,对图像质量更加敏感。当存在移动对象时,Mono deep2完全失败,使用EKF显著地提高了性能,但考虑到任务的难度,仍然难以学习到尺度。在这种情况下,使用Lvg显著提供了强有力的规模监管,取得了良好的规模效果。

表5 对来自KITTI的模拟数据的鲁棒性消融结果

014608f8-2df5-11ed-ba43-dac502259ad0.png

作者以平均协方差作为不确定性度量,图2说明了自我运动不确定性的训练过程。学习的不确定性表现出与深度误差(AbsRel)类似的模式,这意味着随着训练的继续,模型对其预测变得更加确定。此外,DynaDepth R50比R18具有更低的不确定性,表明更大的模型容量也有助于提高预测的可信度,但这种差异并不明显。

0160c4fe-2df5-11ed-ba43-dac502259ad0.png

图2 训练过程

5. 结论

在2022 ECCV论文"Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular Depth Estimation by Integrating IMU Motion Dynamics"中,作者提出了DynaDepth,这是一个使用IMU运动动力学的尺度感知、鲁棒和可推广的单目深度估计框架。具体来说,作者提出了IMU光度损失和跨传感器光度一致性损失,以提供稠密的监督和绝对尺度。

此外,作者为传感器融合推导了一个以摄像机为中心的EKF框架,它也提供了在无监督学习设置下的自我运动不确定性度量。最后作者通过实验证明了DynaDepth在学习绝对尺度、泛化能力和抵抗视觉退化的鲁棒性方面具有优势。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2550

    文章

    51056

    浏览量

    753268
  • 滤波器
    +关注

    关注

    161

    文章

    7801

    浏览量

    178054
  • 深度学习
    +关注

    关注

    73

    文章

    5502

    浏览量

    121125

原文标题:基于整合IMU运动动力学的无监督单目深度估计

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    LED光度测试的研究解决方案

    本文探讨了目前LED分布光度计的发展状况,主要是对基于成像光度学,采用CCD或是数码相机作为分布光度测量手段的仪器进行了分析和研究。
    发表于 01-21 11:03 1535次阅读

    欧司朗推出采用I²C数字输出的环境光度传感器

    欧司朗推出采用I²C数字输出的环境光度传感器 2009年11月18日16:08:34 同时提供标数据速率和高速率3.4 MHz 与人眼相同的方式
    发表于 11-18 16:08 554次阅读

    CMOS传感器/SDDS,什么是CMOS传感器/SDDS

    CMOS传感器/SDDS,什么是CMOS传感器/SDDS CMOS传感器 CMOS传感器是一种通常比CCD传感器低10倍感
    发表于 04-10 14:36 673次阅读

    什么是扩展感光度?为什么说尽量不要用相机的扩展感光度

    扩展感光度是相机原生感光度范围以外的感光度数值,会分为向上扩展以及向下扩展。而扩展感光度并不是靠机内的硬件进行相应的提升或者下降而是通过相机内的软件算法进行的扩展,所以会对画质造成比较
    发表于 08-03 09:04 1.4w次阅读

    基于分布光度计的光电探测介绍

    计量院计量;L品牌公司光度探头由德国PB计量,相对于NIST而言,其等级略低。LSI公司对于光度探头非常重视,特地提供了NIST出具的计量报告。从报告数据来看,该探头精度等级非常高。
    发表于 09-21 10:50 7次下载
    基于分布<b class='flag-5'>光度</b>计的光电探测<b class='flag-5'>器</b>介绍

    721型分光度及使用步骤说明

    721型分光光度计是分光光度法在可见光谱区范围(360一800nm)内,进行定量分析常用的仪器之一。分光光度物质对光的选择性吸收为根据,
    发表于 11-13 08:49 1.9w次阅读
    721型分<b class='flag-5'>光度</b>及使用步骤说明

    分光光度计具体是测什么_分光光度计原理介绍

    本文主要介绍了分光光度计组成、分光光度计特点、分光光度计原理与它的测量内容,其次介绍了分光光度计指标,最后介绍了分光光度的用途和需要注意的事
    发表于 12-29 08:54 12.3w次阅读

    荧光分光光度计是紫外么_荧光分光光度计原理是什么

    本文主要介绍了荧光分光光度计结构组成、荧光分光光度计功能特点、荧光分光光度计的原理、荧光分光光度计并不是紫外的、最后介绍了荧光分光光度计的应
    发表于 12-29 13:44 2.1w次阅读
    荧光分光<b class='flag-5'>光度</b>计是紫外么_荧光分光<b class='flag-5'>光度</b>计原理是什么

    荧光分光度计怎么使用?荧光分光光度计使用步骤

    本文主要介绍了荧光分光光度计分类,荧光分光光度计操作步骤,其中还详细介绍了F-2700荧光分光光度计的操作步骤。最后说明了荧光分光光度计使用的时候需要注意的事项。
    发表于 12-29 14:26 6.5w次阅读

    荧光分光度计的应用用途_荧光分光度计原理_荧光分光度计使用步骤

    荧光分光光度计生物化学、生物医学、环境化工已经得到普遍的运用,本文主要介绍了荧光分光光度计功能特点、荧光分光光度计分类和优缺点分析、其次介绍了荧光分光光度计产品应用及用途和它的原理,最
    发表于 12-29 14:29 8179次阅读
    荧光分<b class='flag-5'>光度</b>计的应用用途_荧光分<b class='flag-5'>光度</b>计原理_荧光分<b class='flag-5'>光度</b>计使用步骤

    LED分布光度计测试原理 LED成像光度计结构

    本文探讨了目前LED分布光度计的发展状况,主要是对基于成像光度学,采用CCD或是数码相机作为分布光度测量手段的仪器进行了分析和研究。
    发表于 03-26 09:02 6112次阅读
    LED分布<b class='flag-5'>光度</b>计测试原理  LED成像<b class='flag-5'>光度</b>计结构

    UG-1022:评估ADUX1020光度传感器的手势和接近性

    UG-1022:评估ADUX1020光度传感器的手势和接近性
    发表于 04-30 16:52 6次下载
    UG-1022:评估ADUX1020<b class='flag-5'>光度</b><b class='flag-5'>传感器</b>的手势和接近性

    ADUX1020:手势和接近数据表的光度传感器

    ADUX1020:手势和接近数据表的光度传感器
    发表于 05-22 10:15 8次下载
    ADUX1020:手势和接近数据表的<b class='flag-5'>光度</b><b class='flag-5'>传感器</b>

    光度检测开源项目

    电子发烧友网站提供光度检测开源项目.zip》资料免费下载
    发表于 07-27 11:33 0次下载
    <b class='flag-5'>光度</b>检测<b class='flag-5'>器</b>开源项目

    基本辐射测量和光度测量

    基本辐射测量和光度测量
    发表于 11-15 19:24 1次下载
    基本辐射测量和<b class='flag-5'>光度</b>测量