| 注册
首页|期刊导航|计算机工程与应用|利用压缩多语言BERT知识增强的低资源神经机器翻译

利用压缩多语言BERT知识增强的低资源神经机器翻译

朱嘉辉 韩韧 张生 陈思州

计算机工程与应用2025,Vol.61Issue(8):P.163-172,10.
计算机工程与应用2025,Vol.61Issue(8):P.163-172,10.DOI:10.3778/j.issn.1002-8331.2312-0244

利用压缩多语言BERT知识增强的低资源神经机器翻译

朱嘉辉 1韩韧 1张生 1陈思州2

作者信息

  • 1. 上海理工大学光电信息与计算机工程学院,上海200093
  • 2. 成都信息工程大学区块链产业学院,成都610225
  • 折叠

摘要

关键词

mBERT知识增强/压缩注意力/低资源机器翻译/对偶训练

分类

信息技术与安全科学

引用本文复制引用

朱嘉辉,韩韧,张生,陈思州..利用压缩多语言BERT知识增强的低资源神经机器翻译[J].计算机工程与应用,2025,61(8):P.163-172,10.

基金项目

国家重点研发计划项目(2018YFB1700900)。 (2018YFB1700900)

计算机工程与应用

OA北大核心

1002-8331

访问量0
|
下载量0
段落导航相关论文