看过本文的还看了

相关文献

该作者的其他文献

文献详情 >一种基于词频-逆文档频率和混合损失的表情识别算法 收藏
一种基于词频-逆文档频率和混合损失的表情识别算法

一种基于词频-逆文档频率和混合损失的表情识别算法

作     者:蓝峥杰 王烈 聂雄 LAN Zhengjie;WANG Lie;NIE Xiong

作者机构:广西大学计算机与电子信息学院南宁530004 广西多媒体通信与网络技术重点实验室南宁530004 

基  金:广西科技重大专项(桂科AA21077007) 

出 版 物:《计算机工程》 (Computer Engineering)

年 卷 期:2023年第49卷第1期

页      码:295-302,310页

摘      要:面部表情能自然高效地表达人类的心理活动和思想状态,影响着人们的沟通交流过程。在诸多智能化应用中,人脸表情识别是人类与机器间建立情感交互的重要基础。在细粒度人脸表情识别任务中,由于特征提取网络对表情产生区域的关键特征处理不足,从而引发细节特征信息丢失问题。提出一种词频-逆文档频率注意力机制TF-IDF SPA,通过该机制调整表情产生关键区域的注意力分布,强化网络对该区域关键细节特征的提取能力。同时,为了应对表情识别任务中普遍存在的类间差异小、类内差异大的问题,设计一种改进型混合加权损失函数,以增强表情类内聚拢性同时增大类间距离。依据数据集中样本的数量分布情况,动态调整损失函数的分类权重值,从而强化模型对小数据量样本的学习能力。在此基础上,将结构简单的TF-IDF SPA模块与卷积层共同堆叠以构建人脸表情识别网络。实验结果表明,该网络具有较好的人脸表情识别性能,在FER2013和CK+数据集上的分类准确率分别达到73.52%和98.27%。

主 题 词:表情识别 FER2013数据集 CK+数据集 词频-逆文档频率 损失函数 注意力机制 

学科分类:081203[081203] 08[工学] 0835[0835] 0812[工学-测绘类] 

D O I:10.19678/j.issn.1000-3428.0063455

馆 藏 号:203116249...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分