基于Transformer的蒙汉神经机器翻译研究OA北大核心CSTPCD
MONGOLIAN-CHINESE NEURAL MACHINE TRANSLATION BASED ON TRANSFORMER
针对传统循环神经网络和卷积神经网络的缺点,搭建完全基于多头自注意力机制的Transformer蒙汉神经机器翻译模型.实验结果表明,该模型比基于LSTM的蒙汉翻译模型提高了9个BLEU值左右.这说明Transformer翻译模型在句子语义提取和语义表达方面优于LSTM翻译模型.同时在语料预处理阶段,还对中蒙文语料进行了不同粒度的切分.通过实验对比分析,蒙文进行BPE处理后的翻译结果优于对中文单独使用分词处理的结果;在较小语料库中,对中文进行分字处理效果优于分词效果.
高芬;苏依拉;牛向华;赵亚平;范婷婷;仁庆道尔吉
内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080
信息技术与安全科学
Transformer多头自注意力粒度切分神经机器翻译
《计算机应用与软件》 2020 (2)
蒙古语语义Web的关键技术研究
141-146,225,7
国家自然科学基金项目(61363052,61502255)内蒙古自治区自然科学基金项目(2016MS0605)内蒙古自治区民族事务委员会基金项目(MW-2017-MGYWXXH-03).
评论