- 年份
- 2025(23)
- 2024(62)
- 2023(50)
- 2022(26)
- 2021(14)
- 2020(6)
- 2019(1)
- 2018(2)
- 2017(1)
- 更多...
- 核心收录
- 中国科技论文与引文数据库(CSTPCD)(101)
- 北京大学中文核心期刊目录(北大核心)(76)
- 中国科学引文数据库(CSCD)(18)
- 中国人文社会科学引文数据库(CHSSCD)(3)
- 中文社会科学引文索引(CSSCI)(3)
- 更多...
- 刊名
- 计算机工程(23)
- 计算机工程与应用(23)
- 软件导刊(7)
- 信息工程大学学报(6)
- 现代信息科技(6)
- 计算机与数字工程(6)
- 智能系统学报(5)
- 南京大学学报(自然科学版)(3)
- 情报杂志(3)
- 数据与计算发展前沿(3)
- 更多...
- 作者单位
- 北京邮电大学(2)
- 哈尔滨工业大学(2)
- 大连理工大学(2)
- 桂林电子科技大学(2)
- 东北石油大学(1)
- 中国人民公安大学(1)
- 中国农业大学(1)
- 中国科学技术大学(1)
- 中国科学院计算机网络信息中心(1)
- 北京信息科技大学(1)
- 更多...
- 语种
- 汉语(185)
- 关键词
- 预训练模型(185)
- 深度学习(35)
- 自然语言处理(24)
- 命名实体识别(16)
- 注意力机制(15)
- 卷积神经网络(11)
- 情感分析(8)
- 文本分类(8)
- 机器阅读理解(8)
- 关系抽取(7)
- 更多...
- 作者
- 吴迪(3)
- 林鸿飞(3)
- 樊睿文(3)
- 白宇(3)
- 蔡东风(3)
- 于润羽(2)
- 党亚固(2)
- 刘渊(2)
- 刘烨(2)
- 刘璐(2)
- 更多...
相关度
- 相关度
- 发表时间
每页显示10条
- 每页显示10条
- 每页显示20条
- 每页显示30条
已找到 185 条结果
- 基于单向Transformer和孪生网络的多轮任务型对话技术北大核心CSCD摘要:循环神经网络和Transformer在多轮对话系统的建模上依赖大量的样本数据且回复准确率过低.为此,提出一种针对任务型对话系统的建模方法.引入预训练模型对句子语意和对话过程进行深度编码,对Transformer模型进行精简,仅保留编码器部分的单向Transformer,将应答部分抽象成不同的指令,采用孪生网络对指令进行相似度排序,选择相似度最高的指令生成应答.在MultiWOZ数据集上的实验结果表明,与LSTM和基于Transform…查看全部>>
- 基于预训练Transformer语言模型的源代码剽窃检测研究CSTPCD摘要:为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入、相似度计算和分类模型.该方法支持多种编程语言,不需要任何标记为剽窃的训练样本,即可达到较好的检测性能.实验结果表明,该方法在多个公开数据集上取得了先进的检测效果,F1值接近.同时,对特定的能获取到较少标记为剽窃训练样本的场景,还提出了一种结合有监督学习分类模型的方法…查看全部>>
- 基于预训练模型与BiLSTM-CNN的多标签代码坏味检测方法CSTPCD
- 针对大语言模型的偏见性研究综述北大核心CSTPCD
- 基于预训练与新型时序图神经网络的智能合约漏洞检测方法北大核心CSTPCD
- 基于压缩与精化深度体素流模型的视频插值北大核心CSTPCD
- 基于混合特征网络的学生评教文本情感分析模型CSCDCSTPCD
- 基于ERNIE预训练的电力设备缺陷文本挖掘方法
- 基于RBAC模型的中文医疗命名实体识别
- ELMo-CNN-BiGRU双通道文本情感分类模型北大核心CSTPCD