看过本文的还看了

相关文献

该作者的其他文献

文献详情 >文本增强与预训练语言模型在网络问政留言分类中的集成对比研究 收藏
文本增强与预训练语言模型在网络问政留言分类中的集成对比研究

文本增强与预训练语言模型在网络问政留言分类中的集成对比研究

作     者:施国良 陈宇奇 Shi Guoliang;Chen Yuqi

作者机构:河海大学商学院南京211100 

基  金:中央高校基本业务费项目"基于图数据库的水利知识图谱关键技术研究"(项目编号:B200207036)研究成果之一 

出 版 物:《图书情报工作》 (Library and Information Service)

年 卷 期:2021年第65卷第13期

页      码:96-107页

摘      要:[目的/意义]政府网络问政平台是政府部门知晓民意的重要途径之一,为提高问政留言分类的精度以及处理留言数据质量差、数量少等问题,对比多种基于BERT改进模型与文本增强技术结合的分类效果并探究其差异原因。[方法/过程]设计网络问政留言分类集成对比模型,文本增强方面采用EDA技术与SimBERT文本增强技术进行对比实验,文本分类模型方面则采用多种基于BERT改进的预训练语言模型(如ALBERT、RoBERTa)进行对比实验。[结果/结论]实验结果表明,基于RoBERTa与SimBERT文本增强的文本分类模型效果最佳,在测试集上的F1值高达92.05%,相比于未进行文本增强的BERT-base模型高出2.89%。同时,SimBERT文本增强后F1值相比未增强前平均提高0.61%。实验证明了基于RoBERTa与SimBERT文本增强模型能够有效提升多类别文本分类的效果,在解决同类问题时具有较强可借鉴性。

主 题 词:问政平台 文本分类 文本增强 BERT模型 

学科分类:1205[管理学-图书情报与档案管理类] 12[管理学] 120501[120501] 120502[120502] 

核心收录:

D O I:10.13266/j.issn.0252-3116.2021.13.010

馆 藏 号:203104540...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分