看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于Swin Transformer与卷积神经网络的高分遥感影像分类 收藏
基于Swin Transformer与卷积神经网络的高分遥感影像分类

基于Swin Transformer与卷积神经网络的高分遥感影像分类

作     者:何小英 徐伟铭 潘凯祥 王娟 李紫微 He Xiaoying;Xu Weiming;Pan Kaixiang;Wang Juan;Li Ziwei

作者机构:福州大学数字中国研究院(福建)福建福州350108 福州大学空间数据挖掘与信息共享教育部重点实验室福建福州350002 福州大学地理空间信息技术国家地方联合工程研究中心福建福州350002 

基  金:国家自然科学基金(41801324) 福建省科技厅引导性项目(2017Y0055,2022H0009) 教育部产学合作协同育人项目(202101119001) 

出 版 物:《激光与光电子学进展》 (Laser & Optoelectronics Progress)

年 卷 期:2024年第61卷第14期

页      码:245-256页

摘      要:针对现有基于深度学习的遥感智能解译方法直接获取全局信息具有挑战性,造成地物边缘模糊、相似类间分类精度低等问题,提出基于Swin Transformer和卷积神经网络的高分遥感图像语义分割模型(SRAU-Net)。SRAU-Net以Swin Transformer编码器-解码器框架为基础,采用U-Net形状,提出了以下改进:构造基于Swin Transformer和基于卷积神经网络的双分支编码器,用不同尺度空间细节特征补充具有全局信息的上下文特征,以获得更高的地物分类精度和更清晰的地物边缘;设计特征融合模块,作为双分支编码器的桥梁从通道和空间维度对全局和局部特征进行有效融合,提升对小目标地物的分割精度;添加特征增强模块,利用注意力机制自适应融合来自编码器和解码器的特征,进一步有效聚合空间和语义特征,提升模型对特征的提取效果。结果表明,SRAU-Net能够更好地提取地物的边缘信息,总体分类精度较原始模型提升了2.57百分点,提高了对小尺度地物的分类精度,有效区分如树木和低矮植被等类间相似的遥感地物,总体精度和F1分数分别为92.60%和86.90%,总体效果优于对比模型。

主 题 词:高分辨率遥感影像 卷积神经网络 Swin Transformer 特征融合 语义分割 

学科分类:0810[工学-土木类] 08[工学] 081002[081002] 

核心收录:

D O I:10.3788/LOP232003

馆 藏 号:203130013...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分