看过本文的还看了

相关文献

该作者的其他文献

文献详情 >一种用于图像融合的无监督深度神经网络 收藏
一种用于图像融合的无监督深度神经网络

一种用于图像融合的无监督深度神经网络

作     者:周培培 侯幸林 Zhou Peipei;Hou Xinglin

作者机构:常州工学院电气信息工程学院江苏常州213032 

基  金:国防科技重点实验室基金(6142401200301) 江苏省高校自然科学面上项目(20KJB520033,18KJB510002) 常州市应用基础研究计划(CJ20190052,CJ20200043) 

出 版 物:《系统仿真学报》 (Journal of System Simulation)

年 卷 期:2022年第34卷第6期

页      码:1267-1274页

摘      要:为解决相机动态范围较小,单次曝光的图像往往无法表达高动态场景的不同区域的问题,构建了一种无监督的深度神经网络,把多次曝光的图像融合成一幅高动态图像。以VGG-Net(visual geometry group-Net)为基础网络,设计编码子网络和解码子网络;以融合前后图像的结构相似度为目标导向,通过引入基于图像局部信息的权重因子,定制适用于图像融合的损失函数,融合图像可兼顾不同输入图像的有效信息。在基准数据集上与多种方法相比,融合图像在主观视觉体验和客观量化指标上均取得了明显提升。

主 题 词:模式识别 高动态场景 图像融合 无监督深度网络 损失函数 

学科分类:1305[艺术学-设计学类] 13[艺术学] 08[工学] 081104[081104] 0804[工学-材料学] 081101[081101] 0811[工学-水利类] 

核心收录:

D O I:10.16182/j.issn1004731x.joss.20-1062

馆 藏 号:203112414...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分