基于深度学习算法的多视角行人轨迹提取分析方法
摘要文本
本发明公开了基于深度学习算法的多视角行人轨迹提取分析方法与设备。步骤如下:首先使用卷积神经网络算法,添加小目标检测层并使用数据增强方法来对俯视角行人的特征进行提取训练得到权重;采用YOLOV5负责俯视角行人的检测,DeepSORT负责目标法追踪、锚框预测和部分轨迹的平滑,并结合坐标投影转换和像素点标定进行行人轨迹提取;轨迹重构算法对初步轨迹进行拼接、去噪、平滑等一系列处理;最后对轨迹的步频、步速、加速度等行人交通量参数进行提取。该项目在不同环境下权重具有较好的可移植性,且极大地简化了外出携带检测设备的复杂度,能够较为实时地得到反馈检测结果和相关参数,对行人交通流研究具有很大的意义。
申请人信息
- 申请人:东南大学
- 申请人地址:210018 江苏省南京市玄武区四牌楼2号
- 发明人: 东南大学
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 基于深度学习算法的多视角行人轨迹提取分析方法 |
| 专利类型 | 发明申请 |
| 申请号 | CN202310997376.3 |
| 申请日 | 2023/8/9 |
| 公告号 | CN117455948A |
| 公开日 | 2024/1/26 |
| IPC主分类号 | G06T7/246 |
| 权利人 | 东南大学 |
| 发明人 | 姚雪健; 金诚杰; 柳维希; 于子萱; 赵昕洋 |
| 地址 | 江苏省南京市江宁区东南大学路2号 |
专利主权项内容
1.基于深度学习算法的多视角行人轨迹提取分析方法,其特征在于,包括如下步骤:S1、采集多视角下行人场景图片,构建各个视角图像数据集,S2、在YOLOV5网络中添加小目标检测层,分别以各个视角图像为输入、其对应的视角下行人特征为输出构建并训练俯视角特征提取模型,并相应获得各个视角的检测权重;S3、将视频导入帧缓冲序列,然后对帧缓冲序列中的每个视频帧逐帧进行画面分割,获得每个视频帧的若干个具有重叠区间的局部帧画面,并记录每幅局部帧画面的左上角坐标(x, y);startstartS4、对每个帧的局部帧画面调用对应视角检测权重进行YOLOV5模型前向推理,得到所有局部画面中框出行人的锚框相对于当前局部画面的左上角坐标及其宽高(x, y, w, h);S5、根据局部帧画面左上角坐标及该局部帧画面内判别行人锚框的相对位置信息,得到该锚框在完整帧画面中的绝对位置信息(x, y, w, h)并将其输出标记在原始帧画面上,并记录行人位置信息;truetruetruetrueS6、检测完整视频,根据行人位置信息获得行人轨迹,对行人轨迹进行去噪和平滑处理,获得最终行人轨迹数据。