一种自主构想的智能目标动态探测系统
摘要文本
本发明公开了一种自主构想的智能目标动态探测系统,该系统包括关键区域重配置成像单元和目标动态探测单元。所述关键区域重配置成像单元用于自主构想输入视频的关键区域并重新配置相机参数,提高关键区域成像质量;目标动态探测单元用于完成一系列连贯探测阶段的自适应决策切换,包括目标自动检出、目标自动锁定、丢失目标重捕和长时间丢失目标重初始化阶段。受益于关键区域重配置成像单元,初始成像中的冗余背景被大量去除同时目标细节信息也得到明显增强,这极大程度降低了探测环境的复杂性进而大幅提高了目标动态探测单元的探测准确性。
申请人信息
- 申请人:北京航空航天大学
- 申请人地址:100191 北京市海淀区学院路37号
- 发明人: 北京航空航天大学
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 一种自主构想的智能目标动态探测系统 |
| 专利类型 | 发明申请 |
| 申请号 | CN202311596804.8 |
| 申请日 | 2023/11/28 |
| 公告号 | CN117635637A |
| 公开日 | 2024/3/1 |
| IPC主分类号 | G06T7/11 |
| 权利人 | 北京航空航天大学 |
| 发明人 | 张弘; 邢万里; 杨一帆; 李亚伟; 刘翰阳; 李旭亮 |
| 地址 | 北京市海淀区学院路37号 |
专利主权项内容
1.一种自主构想的智能目标动态探测系统,其特征在于,包括关键区域重配置成像单元和目标动态探测单元;所述关键区域重配置成像单元接收输入的视频帧IM,对视频帧IM初始成像图中的关键区域聚焦并重配置成像参数,具体包括如下步骤:设IM的宽像素数为W,高像素数为H,设定四种不同尺度的高斯滤波器如下:尺度为(W+H)/4*(W+H)/4的滤波器1,尺度为(W+H)/8*(W+H)/8的滤波器2,尺度为(W+H)/16*(W+H)/16的滤波器3和尺度为(W+H)/32*(W+H)/32的滤波器4;用滤波器1对IM进行滤波操作,得到滤波图1;同理,用滤波器2对IM进行滤波操作,得到滤波图2;用滤波器3对IM进行滤波操作,得到滤波图3;用滤波器4对IM进行滤波操作,得到滤波图4;将滤波图1和滤波图2逐个像素相减,得到第一像素差分图DM1;将滤波图2和滤波图3逐个像素相减,得到第二像素差分图DM2;将滤波图3和滤波图4逐个像素相减,得到第三像素差分图DM3;将滤波图4和IM逐个像素相减,得到第四像素差分图DM4;将第一至第四像素差分图按照比例相加后,得到加权差分图WDM,公式如下:WDM=α*DM1+α*DM2+α*DM3+α*DM41234其中,根据需探测目标在IM图中比例的先验关系,设置每个像素差分图权重系数为α=0.2,α=0.2,α=0.4,α=0.2;1234对加权差分图WDM采用形态学开运算,去除像素差分图中小型噪声并且平滑物体边缘,采用阈值分割方法得到显著性图SM:SM=Threshold(Opening(WDM))=Threshold(Dilation(Erosion(WDM)))其中,Opening代表开运算操作;Dilation代表形态学膨胀操作;Erosion代表形态学腐蚀操作,Threshold代表阈值分割操作,其中每个分割前景即为显著性图SM中待测区域ER;对SM中所有待测区域(ER, n=1, 2, 3…)进行关键度评估排序,在IM中找到对应的所有待测区域,截取4倍于对应待测区域的邻域(Ne, j=1, 2, 3…)来计算关键度,第n个待测区域的关键度得分score计算如下:njnscore=β*Kurt(Ne)+β*Fr(ER)n1j2n其中,Kurt表示计算图像的峰度,Fr表示计算待测区域的像素占其最小外接矩形包含像素的比例值,β和β分别代表权重系数;12将显著性图SM中关键度得分最高的待测区域作为显著区域,然后设置8倍于显著区域的区域作为系统自主构想的关键区域CR;将关键区域中心与视场中心的偏差值发送给随动机构,使视场中心与关键区域中心重合,随后计算当关键区域填充满相机视场时的相机视场角参数,并将该参数用于重新配置相机参数;所述目标动态探测单元被配置为执行如下步骤:根据待探测目标类型制作支持向量机SVM分类器的训练数据集,其中正样本数量:负样本数量=1 : 1.2;所述训练数据集中采用对比度增强、锐化、轻微旋转操作;对CR计算方向梯度直方图特征HOG,训练完成的SVM分类器对HOG特征图采用滑动窗口以及图像金字塔进行各分块区域的检测;滑动窗口通过扫描较大图像的指定尺度区域来解决定位问题,进而在同一图像的不同尺度下重复扫描;同时采用非极大值抑制方式来消除重叠窗口,最终得到探测目标的包围框BBox;在得到BBox的第一帧时,外观跟踪探测器、语义跟踪探测器将自动锁定目标,并且连同状态判断响应值都被初始化;其中,所述外观跟踪探测器以BBox为中心,密集采集2倍BBox区域的样本并提取融合特征作为外观跟踪探测器的训练样本;所述融合特征由多个描述目标不同信息的灰度特征GRAY,有方向的快速角点检测与旋转二值特征ORB和方向梯度直方图HOG融合而成,融合方式如下:FeatureM=γFeature+γFeature+γFeatureGGooHH上式中,γ为GRAY特征对应的权重,γ为ORB特征对应的权重,γ为HOG特征对应的权重,γ=0.6,γ=0.1,γ=0.3;GOHGOH所述外观跟踪探测器选择具有空间正则化结构稀疏学习的相关滤波器CSK跟踪范式,其滤波器优化方式为:其中,L(y, f(x))表示损失函数,λ用于控制正则化程度,w为滤波器矩阵的参数,x为用于训练的第k个特征图,y表示以目标为中心的高斯分布标签,m为用于训练的特征图数量,f(x)=<w, x>+b, 其中<>表示点乘操作,b表示偏置项;kkkkk所述语义跟踪探测器以BBox为中心,采集3倍于BBox区域作为目标模板,采集6倍于BBox区域作为语义跟踪探测器的搜索区域,采用孪生全卷积跟踪网络SiamFC深度跟踪网络结构,来挖掘目标的语义信息;该网络采用随机抽选正样本对或负样本对的方式完成训练;定义状态判断响应值δ,根据跟踪探测器和重捕获探测器将目标给予标签值1,这里状态判断响应值初始化为1;在后续的帧i中,根据外观跟踪探测器和语义跟踪探测器反馈的响应值,自主构想当前探测目标状态,并自适应决策切换不同的探测方式;具体包括如下步骤:所述外观跟踪探测器在2倍于上一帧目标框的搜索区域1中搜索目标,得到搜索区域中外观跟踪探测器在第i帧的最大响应值AResp(i)及对应的原图坐标POS(i),比较AResp(i)与δ(i-1)比例关系,判断是否存在丢失情况;A当AResp(i)≥μ*δ(i-1)时,则判定目标未发生丢失,其中μ为报丢系数,将AResp(i)对应的原图坐标POS(i)作为当前帧目标位置并更新δ(i):Aδ(t)=γ*AResp(i)+(1-γ)*δ(i-1)AA其中,δ(i)为第i帧时状态判断响应值,γ为状态判断响应值的更新率,AResp(i)为外观跟踪探测器在第i帧的最大响应值;A接着,根据POS(i)=(x, y)与搜索区域中心POS=(x, y)的欧式距离评估目标运动状态,其中x,x分别代表POS和POS的横坐标值,y,y分别代表POS和POS的纵坐标值;当时,则构想该目标为快速运动目标,下一帧的μ变为初始值的70%,降低快速运动可能引起的误报丢情况;当/>时,则系统构想该目标为正常运动目标,μ保持为初始值,以POS(i)为搜索中心,在下一帧继续执行所述后续的帧i的探测;ApporiorioriporiAoriporiAoriA当AResp(i)<μ*v(i-1)时,则判定目标发生丢失;此时,具有更大探测范围的语义跟踪探测器,以6倍于前一帧目标框的搜索区域2重捕目标,得到语义跟踪探测器的最大响应值SResp,并以SResp的位置POS为中心,再次采用外观跟踪探测器进行搜索,并再得到外观跟踪探测器的最大响应值AResp*及对应位置POS*(i);若AResp(i)≥μ*δ(i-1),则目标找回成功,更新δ(i),并且系统输出目标位置POS*(i);若AResp(i)<μ*δ(i-1),当前帧目标找回失败,不输出目标位置,δ(i)不更新;当目标连续无法找回不足10帧,以上一帧目标位置为搜索中心,执行所述后续的帧i的探测;当目标连续10帧无法找回,则判断目标处在长时间丢失状态,不输出目标位置,重新进入所述目标动态探测单元的步骤开始执行,检测发现新目标并重新自动锁定持续探测。sAA。数据由马 克 团 队整理