T=题名(书名、题名),A=作者(责任者),K=主题词,P=出版物名称,PU=出版社名称,O=机构(作者单位、学位授予单位、专利申请人),L=中图分类号,C=学科分类号,U=全部字段,Y=年(出版发行年、学位年度、标准发布年)
AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
范例一:(K=图书馆学 OR K=情报学) AND A=范并思 AND Y=1982-2016
范例二:P=计算机应用与软件 AND (U=C++ OR U=Basic) NOT K=Visual AND Y=2011-2016
摘要:显著目标检测(SOD)旨在模仿人类视觉系统注意力机制和认知机制来自动提取场景中的显著物体。虽然现有基于卷积神经网络(CNN)或Transformer的模型不断刷新该领域方法的性能,但较少研究关注以下两个问题:(1)此领域多数方法常采用逐像素点的密集预测方式以获取像素显著值,然而该方式不符合基于人类视觉系统的场景解析机制,即人眼通常对语义区域进行整体分析而非关注像素级信息;(2)增强上下文信息关联在SOD任务中受到广泛关注,但通过Transformer主干结构获取长程关联特征不一定具有优势。SOD应更关注目标在适当区域内其中心-邻域差异性而非全局长程依赖。针对上述问题,该文提出一种新的显著目标检测模型,将CNN形式的自适应注意力和掩码注意力集成到网络中,以提高显著目标检测的性能。该算法设计了基于掩码感知的解码模块,通过将交叉注意力限制在预测的掩码区域来感知图像特征,有助于网络更好地聚焦于显著目标的整体区域。同时,该文设计了基于卷积注意力的上下文特征增强模块,与Transformer逐层建立长程关系不同,该模块仅捕获最高层特征中的适当上下文关联,避免引入无关的全局信息。该文在4个广泛使用的数据集上进行了实验评估,结果表明,该文提出的方法在不同场景下均取得了显著的性能提升,具有良好的泛化能力和稳定性。
地址:宁波市钱湖南路8号浙江万里学院(315100)
Tel:0574-88222222
招生:0574-88222065 88222066
Email:yzb@zwu.edu.cn