看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于Transformer的中文纠错系统设计与实现 收藏
基于Transformer的中文纠错系统设计与实现

基于Transformer的中文纠错系统设计与实现

作     者:李丹丹 

作者机构:北方工业大学信息学院 

出 版 物:《数字技术与应用》 (Digital Technology & Application)

年 卷 期:2021年第39卷第12期

页      码:213-215页

摘      要:实现中文文本纠错的目的是提高语言的正确性,同时减少人工校验成本。序列到序列的深度模型可以避免人工提取特征,减少人工工作量,对文本任务拟合能力强,特别是Transformer模型,近几年在自然语言处理领域大火大热。Transformer模型摒弃了传统序列到序列模型中CNN或RNN的方法和模块,开创性地将自注意力机制作为编解码器的核心,不仅训练速度快,而且解决了RNN处理长距离文本可能导致语义丢失的问题。本论文设计了一个基于Transformer的中文纠错系统,经过NLPCC2018官方基准测试集的测试,本论文设计的模型精确率达到27.19,召回率达到12.27,证明本系统有效。

主 题 词:自然语言处理 注意力机制 基准测试 序列模型 中文文本 编解码器 召回率 RNN 

学科分类:081203[081203] 08[工学] 0835[0835] 0812[工学-测绘类] 

D O I:10.19695/j.cnki.cn12-1369.2021.12.69

馆 藏 号:203106997...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分