← 返回列表

一种基于元学习组合注意力机制网络模型的目标检测方法

申请号: CN202410052133.7
申请人: 南京航空航天大学
申请日期: 2024/1/15

摘要文本

本发明涉及一种基于元学习组合注意力机制网络模型的目标检测方法,包括:采集通用图像和待检测的目标图像,构建元学习组合注意力检测网络MetaSwinNet模型,在训练任务上,基于元学习的学习去初始化范式,使用通用图像的支持集和查询集训练网络模型,得到具有最优初始化参数的网络检测模型;在测试任务上,将网络检测模型的骨干网络进行冻结,再将目标图像的支持集输入该模型中训练,使用CWT自适应更新模块更新优化多尺度特征融合模块和注意力解码检测模块的网络参数,得到最终的目标检测模型。本发明能够克服有效样本稀少,目标存在的特征微小,遮挡严重等困难,有效提取图像上下文信息,实现在复杂背景下对小目标的准确检测。

专利详细信息

项目 内容
专利名称 一种基于元学习组合注意力机制网络模型的目标检测方法
专利类型 发明授权
申请号 CN202410052133.7
申请日 2024/1/15
公告号 CN117576379B
公开日 2024/3/29
IPC主分类号 G06V10/25
权利人 南京航空航天大学
发明人 汪俊; 蔡升堰; 濮宬涵; 林子煜
地址 江苏省南京市秦淮区御道街29号

专利主权项内容

1.一种基于元学习组合注意力机制网络模型的目标检测方法,其特征在于,包括以下步骤:S1、采集通用图像,用于制作训练任务上的支持集和查询集,采集待检测的目标图像,用于制作测试任务上的支持集和查询集;S2、构建元学习组合注意力检测网络MetaSwinNet模型,所述MetaSwinNet模型由基于移动窗口的层次化自注意力模型Swin-Transformer作为骨干网络的编码器、多尺度特征融合模块、注意力解码检测模块以及CWT自适应更新模块组成;S3、在训练任务上,基于元学习的学习去初始化范式Learn to initialize,使用通用图像的支持集和查询集训练MetaSwinNet模型,完成模型的初始化参数更新,得到具有最优初始化参数θ的网络检测模型;其具体包括以下步骤:*S31、将S2中的Swin-Transformer通过块分区模块Patch Partition和基于移动窗口的层次化自注意力模块Swin Transformer Block组成的连续四个Stage模块串行连接;S32、将所述通用图像的支持集输入作为骨干网络的Swin-Transformer模型的块分区模块Patch Partition中,先在图像的高宽上分别划分为四等份,并经过第一Stage模块的线性嵌入模块Linear Embedding划分为小块嵌入到低维空间,然后经过第二、三、四Stage模块分别提取出第一、二、三图像语义空间特征图;S33、所述多尺度特征融合模块包括第一输入特征卷积层,第一上采样层,第二输入特征卷积层,第二上采样层;将提取到的第三图像语义空间特征图先输入第一输入特征卷积层,经过卷积处理的第三语义空间特征输入第一上采样层进行上采样,然后与第二图像语义空间特征进行拼接,一起输入第二输入特征卷积层,完成卷积后输入第二上采样层进行上采样,输出的特征图与第一图像语义空间特征图进行拼接得到增强过的第一图像语义空间特征,将其送入卷积,并与增强后的第二图像语义空间特征进行拼接,然后作为输入进行卷积,与增强后的第三图像语义空间特征进行拼接,然后分别进行卷积,输出得到多尺度融合特征;S34、分别计算多尺度融合特征的尺度注意力、空间注意力和任务注意力,经由主干网络和多尺度特征融模块输出的多尺度融合特征输入到注意力解码检测模块中,最后输出模型预测目标的边界框bounding box和类别;S35、使用通用图像的的查询集计算损失函数,更新模型的初始参数,得到具有最优初始化参数θ的网络检测模型;*S4、在测试任务上,将网络检测模型的骨干网络进行冻结,再将目标图像的支持集输入该模型中进行训练,使用CWT自适应更新模块更新优化多尺度特征融合模块和注意力解码检测模块的网络参数,得到最终的目标检测模型。