| 注册
首页|期刊导航|厦门大学学报(自然科学版)|融合BERT预训练语言知识的神经机器翻译方法

融合BERT预训练语言知识的神经机器翻译方法

谷雪鹏 郭军军 余正涛

厦门大学学报(自然科学版)2024,Vol.63Issue(6):P.1024-1032,9.
厦门大学学报(自然科学版)2024,Vol.63Issue(6):P.1024-1032,9.DOI:10.6043/j.issn.0438-0479.202312017

融合BERT预训练语言知识的神经机器翻译方法

谷雪鹏 1郭军军 2余正涛2

作者信息

  • 1. 昆明理工大学信息工程与自动化学院,云南昆明650500
  • 2. 昆明理工大学信息工程与自动化学院,云南昆明650500 昆明理工大学云南省人工智能重点实验室,云南昆明650500
  • 折叠

摘要

关键词

机器翻译/预训练语言模型/注意力机制/Transformer网络模型

分类

信息技术与安全科学

引用本文复制引用

谷雪鹏,郭军军,余正涛..融合BERT预训练语言知识的神经机器翻译方法[J].厦门大学学报(自然科学版),2024,63(6):P.1024-1032,9.

基金项目

国家重点研发计划(2020AAA0107904) (2020AAA0107904)

国家自然科学基金(62366025) (62366025)

云南省自然科学基金(2019FB082,2019QY1801) (2019FB082,2019QY1801)

云南省重大科技专项(202002AD080001,202103AA080015,202202AD080003)。 (202002AD080001,202103AA080015,202202AD080003)

厦门大学学报(自然科学版)

OA北大核心CSTPCD

0438-0479

访问量0
|
下载量0
段落导航相关论文