结合沙漏注意力与渐进式混合Transformer的图像分类方法OA北大核心CSTPCD
Transformer在图像分类任务中具有广泛应用,但在小数据集分类任务中,Transformer受到数据量较少、模型参数量过大等因素的影响,导致分类精度低、收敛速度缓慢。本文提出了一种融合沙漏注意力的渐进式混合Transformer模型。首先,通过下-上采样的沙漏自注意力建模全局特征关系,利用上采样补充下采样操作丢失的信息,同时采用可学习温度参数和负对角掩码锐化注意力的分数分布,避免因层数过多产生过度平滑的现象;其次,设计渐进式下采样模块获得细粒度多尺度特征图,有效捕获低维特征信息;最后,使用混合架构,在顶层阶段使用设计的沙漏注意力,底层阶段使用池化层替代注意力模块,并引入带有深度卷积的层归一化,增加网络局部性。所提方法在T-ImageNet、CIFAR10、CIFAR100、SVHN数据集上进行实验,分类精度可以达到97.42%,计算量和参数量分别为3.41G和25M。实验结果表明,与对比算法相比,该方法的分类精度有明显提升,计算量和参数量有明显降低,提高了Transformer模型在小数据集上的性能表现。
彭晏飞;崔芸;陈坤;李泳欣;
辽宁工程技术大学电子与信息工程学院,辽宁葫芦岛125105
计算机与自动化
小数据集图像分类Transformer沙漏注意力多尺度特征混合架构
《液晶与显示》 2024 (009)
P.1223-1232 / 10
国家自然科学基金(No.61772249);辽宁省高等学校基本科研项目(No.LJKZ0358)。
评论