看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于多尺度语义编解码网络的遥感图像语义分割 收藏
基于多尺度语义编解码网络的遥感图像语义分割

基于多尺度语义编解码网络的遥感图像语义分割

作     者:梁燕 易春霞 王光宇 胡跃辉 LIANG Yan;YI Chun-xia;WANG Guang-yu;HU Yue-hui

作者机构:重庆邮电大学通信与信息工程学院重庆400065 信号与信息处理重庆市重点实验室重庆400065 移动通信教育部工程研究中心重庆400065 

基  金:国家自然科学基金(No.61702066) 重庆市教委科学技术重点研究项目(No.KJZD-M201900601) 

出 版 物:《电子学报》 (Acta Electronica Sinica)

年 卷 期:2023年第51卷第11期

页      码:3199-3214页

摘      要:针对遥感图像语义分割中存在的多层次信息提取和多尺度特征图上下文依赖性两个问题,本文分析现有处理方案,提出了一种综合运用多项技术的多尺度语义编解码网络(Multi-scale Semantic Encoder-Decoder Networks,MSEDNet).MSEDNet由编码与解码两部分构成.编码阶段,首先提出残差协同空间注意(Residuals Coordinate Spatial Attention,RCSA)的MobileNetV3增强型模块,提取语义信息;其次,设计多层增强语义上下文模块(Enhance Semantic Context Module,ESCM),提升多尺度结构特征图的表征能力.解码阶段,首先提出多核卷积与Focus并行的强化空间细节信息模块(Strengthen Spatial Detail Information Module,SSDIM),增强浅层特征细节和结构信息;其次,设计了三元迭代多尺度特征融合(Triplet Iterative Multi-Scale Feature Fusion,TIMSFF)策略,强化图像深层全局语义信息与浅层局部细节特征的多尺度融合,提升分割精度.所提模型在ISPRS Vaihingen和Potsdam数据集上验证,总体分割精度(Overall Accuracy,OA)分别达到95.699%、95.534%,平均F1-score(mean F1-score,m F1)分别提高2.661%和2.929%,且平均交并比(mean Intersection over Union,mIoU)分别增长3.973%和4.012%.所耗参数量Param下降至6.77 M.

主 题 词:遥感语义分割 多尺度语义上下文 注意力机制 空间细节 多尺度特征融合 

学科分类:12[管理学] 1201[管理学-管理科学与工程类] 081104[081104] 08[工学] 0835[0835] 0811[工学-水利类] 0812[工学-测绘类] 

核心收录:

D O I:10.12263/DZXB.20220503

馆 藏 号:203125325...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分