限定检索结果

检索条件"主题词=修正线性单元"
2 条 记 录,以下是1-10 订阅
视图:
排序:
一种新的深度卷积神经网络的SLU函数
收藏 引用
《哈尔滨工业大学学报》2018年 第4期50卷 117-123页
作者:赵慧珍 刘付显 李龙跃空军工程大学防空反导学院西安710051 
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了...
来源:详细信息评论
基于通道特征聚合的行人重识别算法
收藏 引用
《应用科学学报》2023年 第1期41卷 107-120页
作者:徐增敏 陆光建 陈俊彦 陈金龙 丁勇桂林电子科技大学数学与计算科学学院广西桂林541004 桂林电子科技大学计算机与信息安全学院广西桂林541004 桂林安维科技有限公司广西桂林541010 
在基于深度学习的行人重识别算法中,通道特征易被忽视而导致模型表达能力降低。为此,以ResNeSt50为骨干网络,借鉴SENet通道注意力特点在残差块末尾接入SE block,增强网络对通道特征的提取能力;针对ReLU函数因缺少控制因子而限制不同通...
来源:详细信息评论
聚类工具 回到顶部