| 注册
首页|期刊导航|计算机应用研究|基于深度编码注意力的XLNet-Transformer汉-马低资源神经机器翻译优化方法

基于深度编码注意力的XLNet-Transformer汉-马低资源神经机器翻译优化方法

占思琦 徐志展 杨威 谢抢来

计算机应用研究2024,Vol.41Issue(3):P.799-804,810,7.
计算机应用研究2024,Vol.41Issue(3):P.799-804,810,7.DOI:10.19734/j.issn.1001-3695.2023.08.0331

基于深度编码注意力的XLNet-Transformer汉-马低资源神经机器翻译优化方法

占思琦 1徐志展 1杨威 2谢抢来2

作者信息

  • 1. 江西科技学院信息工程学院,南昌330098
  • 2. 江西科技学院协同创新中心大数据实验室,南昌330098
  • 折叠

摘要

关键词

神经网络/汉-马机器翻译/低资源/渐进式解冻/预训练

分类

信息技术与安全科学

引用本文复制引用

占思琦,徐志展,杨威,谢抢来..基于深度编码注意力的XLNet-Transformer汉-马低资源神经机器翻译优化方法[J].计算机应用研究,2024,41(3):P.799-804,810,7.

基金项目

江西省教育厅科学技术研究资助项目(GJJ2202613,GJJ212015)。 (GJJ2202613,GJJ212015)

计算机应用研究

OA北大核心CSTPCD

1001-3695

访问量0
|
下载量0
段落导航相关论文