← 返回列表

基于自适应时间上下文聚合的目标跟踪方法、装置、设备

申请号: CN202311595518.X
申请人: 中国科学院长春光学精密机械与物理研究所
申请日期: 2023/11/27

摘要文本

本发明涉及计算机视觉技术领域,尤其涉及一种基于自适应时间上下文聚合的目标跟踪方法、装置、设备,方法包括:S1:将目标模板和搜索区域的两个分支的图像进行归一化处理,获得两个分支的归一化图像;S2:将两个分支的归一化图像输入至特征提取网络中,对应获得目标模板特征图和搜索区域特征图;S3:将目标模板特征图和搜索区域特征图输入至相似性匹配网络进行深度互相关操作,获得响应图;S4:将响应图输入至自适应时间上下文聚合网络进行自适应时间上下文聚合操作,获得加强响应图;S5:将加强响应图输入至无锚框分类回归网络进行目标的分类和回归,获得目标的跟踪结果。本发明能够在几乎不增加额外计算量的同时提高目标的跟踪性能。

专利详细信息

项目 内容
专利名称 基于自适应时间上下文聚合的目标跟踪方法、装置、设备
专利类型 发明申请
申请号 CN202311595518.X
申请日 2023/11/27
公告号 CN117576158A
公开日 2024/2/20
IPC主分类号 G06T7/246
权利人 中国科学院长春光学精密机械与物理研究所
发明人 刘晶红; 陈琪琪; 刘成龙; 刘发学; 王波
地址 吉林省长春市经济技术开发区东南湖大路3888号

专利主权项内容

1.一种基于自适应时间上下文聚合的目标跟踪方法,其特征在于,具体包括如下步骤:S1:将待识别图像序列划分为孪生神经网络的目标模板和搜索区域,并将所述目标模板和所述搜索区域的两个分支的图像进行归一化处理,获得两个分支的归一化图像;S2:将两个分支的归一化图像输入至特征提取网络中,对应获得目标模板特征图和搜索区域特征图;S3:将所述目标模板特征图和所述搜索区域特征图输入至相似性匹配网络进行深度互相关操作,获得响应图;S4:将所述响应图输入至自适应时间上下文聚合网络进行自适应时间上下文聚合操作,获得加强响应图;S5:将所述加强响应图输入至无锚框分类回归网络进行目标的分类和回归,获得所述目标的跟踪结果。