← 返回列表

一种基于数据增强的红外小目标检测方法及装置

申请号: CN202311716365.X
申请人: 武汉大学
申请日期: 2023/12/14

摘要文本

本发明公开了一种基于数据增强的红外小目标检测方法及装置,以克服现有红外小目标的采集和标注具有挑战性,导致数量无法满足基于CNN的深度学习检测模型的需求,以及没有有效且具有多样性的红外小目标图像扩增方法。本发明首先采用背景填充的方法获取干净的背景图像,并使用扩散模型生成更复杂和多样化的背景图像;然后设计了一种基于生成对抗网络的目标自适应融合方法,更好地融合目标掩模和生成的背景图像,能够生成更加逼真的红外小目标增强图像。本发明解决了红外小目标图像增强的复杂问题,通过两阶段的方法,将复杂问题分解为两个相对简单的问题。通过红外小目标图像的增广,扩增已有数据集,使得检测模型可以取得更好的检测效果。

专利详细信息

项目 内容
专利名称 一种基于数据增强的红外小目标检测方法及装置
专利类型 发明授权
申请号 CN202311716365.X
申请日 2023/12/14
公告号 CN117409192B
公开日 2024/3/8
IPC主分类号 G06V10/25
权利人 武汉大学
发明人 崔晓晖; 吴耀馨; 丁红卫
地址 湖北省武汉市武昌区珞珈山

专利主权项内容

1.一种基于数据增强的红外小目标检测方法,其特征在于,包括如下步骤:步骤S1,选取训练集中红外小目标图像作为原始图像,进行图像预处理操作,去除小目标获取干净的红外背景图像,选取训练集中目标掩膜图像作为小目标掩膜图像库;步骤S2,使用步骤S1得到的红外背景图像来训练去噪扩散概率模型,之后使用训练好的去噪扩散概率模型生成新的红外背景图像;步骤S3,对干净的红外背景图像和小目标图像进行粗略的初始融合,然后将初始融合后的图像输入目标融合网络进行更细致的融合;步骤S4,构建基于GAN的目标融合网络,包括一个生成器和一个鉴别器,生成器为U-Net模型,输入为步骤S3中得到的预融合图像,输出微调后的融合后红外小目标图像;鉴别器采用PatchGAN结构,输入为融合后的红外小目标图像或者原始训练集中的红外小目标图像,鉴别器将生成的融合图像判别为假,将原始红外小目标图像判别为真;步骤S5,对目标融合网络进行对抗训练完成后,将去噪扩散概率模型生成的背景图像与真实小目标的掩膜图像进行步骤S3的预融合,得到的预融合图像作为生成器的输入,输出为新的红外小目标图像;目标融合网络中的生成器G的输入是初始融合后的图像,即预融合图像,输出是微调图像/>;鉴别器D的输入由包含小目标的原始图像和由G生成的图像/>组成,鉴别器学习的目的是使预融合目标学习到真实目标的像素值,为了训练生成器G和鉴别器D,使用最小二乘损失作为目标损失:
表示含有红外小目标的原始真实图像,/>表示预融合图像,/>表示原始真实红外小目标图像的数据分布,而/>则表示GAN的输入预融合图像/>的数据分布,/>表示对应项的数据期望;/>、/>表示原始GAN模型中生成器和判别器的损失;在生成器中加入了两个额外的损失函数,即重建损失和对比度损失,重建损失是为了用L1距离来衡量生成图像与原始图像之间的差异,其表示如下:
表示样本数量;对比度损失相当于一个正则化项,目的是约束目标像素向对应的背景像素靠近,损失如下所示:其中表示背景图像,/>表示/>和/>对应的掩膜图像,/>表示小目标对应位置的背景区域像素,/>表示生成的红外图像中小目标区域像素;基于以上,目标融合网络中生成器的整体损失如下:其中,和/>分别表示/>和/>的权重;步骤S6,构建基于U-Net的红外小目标检测模型,包括具有跳跃连接的卷积编码器和解码器结构,输入为带有小目标的红外图像,包括原始训练集中的红外小目标图像和得到的新的红外小目标图像,输出为小目标掩膜。