看过本文的还看了

正在加载...

相关文献

正在加载...

该作者的其他文献

正在加载...
文献详情 >场景结构知识增强的协同显著性目标检测 收藏
场景结构知识增强的协同显著性目标检测

场景结构知识增强的协同显著性目标检测

作     者:胡升龙 陈彬 张开华 宋慧慧 HU Shenglong;CHEN Bin;ZHANG Kaihua;SONG Huihui

作者机构:南京信息工程大学自动化学院江苏南京210044 

基  金:国家自然科学基金(62276141) 2024年江苏省研究生科研创新计划项目(KYCX24_1508) 

出 版 物:《计算机工程》 (Computer Engineering)

年 卷 期:2025年第51卷第1期

页      码:31-41页

摘      要:现有的协同显著性目标检测(CoSOD)方法通过挖掘组内一致性与组间差异性来学习判别性表征,这种范式因缺乏语义标签的引导导致所学表征的判别性受限,难以应对复杂的非协同目标的干扰。为了解决这一问题,提出一种新的场景结构知识增强的CoSOD模型SSKNet。SSKNet利用大模型mPlug构建目标间场景结构语义关系并通过分割一切模型(SAM)将这种结构语义关系转移到最终的协同显著性结果中。具体来说:首先,为了学习语义知识,引入图像场景理解大模型,对图像组中的图像进行理解,并得到表示结构语义的文本描述组,这些文本描述组以文本的形式描述图像的显著内容;接着,为了获取协同显著信息,设计协同提示提取(CoPE)模块,通过在一组描述文本中使用协同注意力机制获取协同显著文本;最后,为了将协同显著文本转化为协同显著掩码,引入SAM,将协同显著文本以文本提示的方式引导SAM分割协同显著目标,获取最终的协同显著检测掩码。在3个公开数据集CoSal2015、CoCA和CoSOD3k上的实验结果表明,SSKNet模型的综合评估指标Fβ的取值分别为0.910、0.750和0.887,达到了先进水平。

主 题 词:场景结构知识 大模型 分割一切模型 协同显著性目标检测 深度学习 

学科分类:1305[艺术学-设计学类] 13[艺术学] 081104[081104] 08[工学] 0804[工学-材料学] 081101[081101] 0811[工学-水利类] 

D O I:10.19678/j.issn.1000-3428.0070064

馆 藏 号:203157086...

读者评论 与其他读者分享你的观点

正在加载...
用户名:未登录
我的评分 12345