看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于边缘辅助极线Transformer的多视角场景重建 收藏
基于边缘辅助极线Transformer的多视角场景重建

基于边缘辅助极线Transformer的多视角场景重建

作     者:童伟 张苗苗 李东方 吴奇 宋爱国 TONG Wei;ZHANG Miaomiao;LI Dongfang;WU Qi;SONG Aiguo

作者机构:南京理工大学机械工程学院南京210094 上海交通大学电子信息与电气工程学院上海200240 福州大学电气工程与自动化学院福州350108 东南大学仪器科学与工程学院南京210096 

基  金:国家自然科学基金(U1933125,62171274) 国家自然科学基金“叶企孙”重点项目(U2241228) 国防创新特区项目(193-CXCY-A04-01-11-03,223-CXCY-A04-05-09-01) 上海市级科技重大专项(2021SHZDZX) 

出 版 物:《电子与信息学报》 (Journal of Electronics & Information Technology)

年 卷 期:2023年第45卷第10期

页      码:3483-3491页

摘      要:基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断方法仍需要较高的深度采样率,并且在静态或预先设定的范围内采样深度值,容易在物体边界以及光照遮挡等区域产生错误的深度推断。为了缓解这些问题,该文提出一种基于边缘辅助极线Transformer的密集深度推断模型。与现有工作相比,具体改进如下:将深度回归转换为多深度值分类进行求解,在有限的深度采样率和GPU占用下保证了推断精度;设计一种极线Transformer模块提高跨视角代价体聚合的可靠性,并引入边缘检测分支约束边缘特征在极线方向的一致性;为了提高弱纹理区域的精度,设计了基于概率成本体积的动态深度范围采样机制。与主流的方法在公开的数据集上进行了综合对比,实验结果表明所提模型能够在有限的显存占用下重建出稠密准确的3D场景。特别地,相比于Cas-MVSNet,所提模型的显存占用降低了35%,深度采样率降低约50%,DTU数据集的综合误差从0.355降低至0.325。

主 题 词:多视角场景重建 多视角立体几何 深度估计 极线几何 Transformer 

学科分类:1305[艺术学-设计学类] 13[艺术学] 081104[081104] 08[工学] 0804[工学-材料学] 081101[081101] 0811[工学-水利类] 

核心收录:

D O I:10.11999/JEIT221244

馆 藏 号:203124213...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分