T=题名(书名、题名),A=作者(责任者),K=主题词,P=出版物名称,PU=出版社名称,O=机构(作者单位、学位授予单位、专利申请人),L=中图分类号,C=学科分类号,U=全部字段,Y=年(出版发行年、学位年度、标准发布年)
AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
范例一:(K=图书馆学 OR K=情报学) AND A=范并思 AND Y=1982-2016
范例二:P=计算机应用与软件 AND (U=C++ OR U=Basic) NOT K=Visual AND Y=2011-2016
摘要:传统的深度估计方法通常利用普通相机记录的二维图像进行单目或多目深度估计.因这种方式仅利用了光线的强度信息,忽略了它的方向信息,其深度估计的效果并不理想.相比之下,光场记录的信息不仅包含了光线的强度信息,还包含了方向信息.因此,基于深度学习的光场深度估计方法越来越引起该领域研究人员的关注,现已成为深度估计方向的研究热点.然而,目前大部分的研究工作从极平面图像(EPI)或子孔径图像着手进行深度估计,而不能有效利用焦点堆栈含有的丰富深度信息.为此,本文提出了基于光场焦点堆栈的鲁棒深度估计方法.本文设计了一种上下文推理单元(CRU),它能够有效地挖掘焦点堆栈和RGB图像的内部空间相关性.同时,本文提出了注意力引导的跨模态融合模块(CMFA),对上下文推理单元提取的空间相关性信息进行有效融合.为了验证本方法的准确性,在DUT-LFDD和LFSD数据集上进行了广泛的验证.实验结果表明,本文方法的准确率相比现有的EPINet和PADMM分别提高了1.2%和2.25%.为进一步证明本方法的有效性,我们在现有公开的手机数据集上进行了反复的测试.可视化测试结果表明,本方法在普通消费级手机获取的图像上亦可取得满意的效果,能够适应现实应用场景.
摘要:现有的单目深度估计方法通常使用图像语义信息来获取深度,忽略了另一个重要的线索——失焦模糊。同时,基于失焦模糊的深度估计方法通常把焦点堆栈或者梯度信息作为输入,没有考虑到焦点堆栈各图像层之间的模糊变化量小以及焦点平面两侧具有模糊歧义性的特点。针对现有焦点堆栈深度估计方法的不足,提出一种基于三维卷积的轻量化网络。首先,设计一个三维感知模块对焦点堆栈的模糊信息进行粗提取;然后,将提取到的信息与通道差分模块输出的焦点堆栈RGB通道差分特征进行级联,构建可以识别模糊歧义性模式的焦点体;最后,利用多尺度三维卷积来预测深度。实验结果表明,与AiFDepthNet(All in Focus Depth Network)等方法相比,所提方法在DefocusNet数据集上的平均绝对误差(MAE)等7个指标上取得了最优;在NYU Depth V2数据集上的4个指标上取得了最优,3个指标上取得了次优;同时,轻量化的设计使所提方法的推理时间分别缩短了43.92%~70.20%和47.91%~77.01%。可见,所提方法能有效地提高焦点堆栈深度估计的准确性及推理速度。
摘要:传统上为了拍摄前景与后景均清晰的图像,相机光圈应当尽可能的小。但是受到衍射极限的影响,过小的光圈会造成图像发生畸变。然而通过将多张相同构图但不同焦距的图像合成,可克服上述困难。本方法包含硬件设备和算法设计,重点在算法设计上,包括高斯滤波、拉普拉斯算子、均值滤波以及探测点的极大值映射,最终实现图像的合成。除此而外,算法中还加入了多进程的思想,使得算法在获取同样锐度图像的条件下,程序运行时间极大缩短,这通过仿真实验得以论证。本论文提出的算法适用于多核CPU的处理,具备普适性。
地址:宁波市钱湖南路8号浙江万里学院(315100)
Tel:0574-88222222
招生:0574-88222065 88222066
Email:yzb@zwu.edu.cn