看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于RoBERTa模型的公众留言分类研究 收藏
基于RoBERTa模型的公众留言分类研究

基于RoBERTa模型的公众留言分类研究

作     者:孟晓龙 任正非 Meng Xiaolong;Ren Zhengfei

作者机构:上海旅游高等专科学校上海201418 上海师范大学旅游学院上海201418 科克大学数学学院科克爱尔兰 

基  金:上海旅游高等专科学校校级科研项目(KY2020-DL13) 

出 版 物:《现代计算机》 (Modern Computer)

年 卷 期:2021年第27卷第28期

页      码:21-26页

摘      要:基于大规模文本语料库的预先训练模型能够学习通用语义表征,再根据给定数据集进行微调可以显著提升预先训练模型在各类自然语言处理任务的性能。在这种“预先训练模型+微调策略”的模式下,数据特征来源的选择、模型速率的提升、微调策略的设计就显得尤为重要。本文重点介绍强力优化的语义表征模型RoBERTa、基于全词遮蔽的扩展模型RoBERTa-wwm-ext和基于知识蒸馏的压缩模型RBT3等预先训练模型,以及判别微调DF和倾斜的三角学习率STLR等微调策略。在公众留言分类实验中表明,相对仅选取“主题”作为数据特征来源,选取“主题+详情”的效果可提高2%~3%;相对经典语义表征模型BERT,采用RoBERTa-wwm-ext模型的效果可提高2%左右,RBT3模型的速率可提升2~4倍;相对默认微调策略,采用上述微调策略的效果同样可再提高2%~3%。

主 题 词:文本分类 特征选择 预先训练模型 微调策略 知识蒸馏 

学科分类:081203[081203] 08[工学] 0835[0835] 0812[工学-测绘类] 

D O I:10.3969/j.issn.1007-1423.2021.28.004

馆 藏 号:203106298...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分