一种基于深度学习的全天候跌倒检测方法
摘要文本
一种基于深度学习的全天候跌倒检测方法,涉及物联网技术、计算机视觉技术以及行为识别技术领域,解决现有跌倒检测方法存在传感器部署复杂,成本高或存在识别率低、误报等问题,该方法采用安防监控设备进行图像信息的采集,相较于环境设备,穿戴式设备和传统基于视觉信息的检测方法,具有准确率高、适用于复杂环境、可以全天候检测等优点。基于广泛部署的安防监控摄像头对人体的状态进行检测,可有效区分患者的休息区域与活动区域,并对活动区域的相关人员进行跌倒检测,不仅具有全天候、实时性、容错性强等特点,更可以有效减少硬件部署的成本。 来源:百度马 克 数据网
申请人信息
- 申请人:长春理工大学
- 申请人地址:130022 吉林省长春市朝阳区卫星路7186号
- 发明人: 长春理工大学
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 一种基于深度学习的全天候跌倒检测方法 |
| 专利类型 | 发明授权 |
| 申请号 | CN202311402745.6 |
| 申请日 | 2023/10/27 |
| 公告号 | CN117132949B |
| 公开日 | 2024/2/9 |
| IPC主分类号 | G06V20/52 |
| 权利人 | 长春理工大学 |
| 发明人 | 王京华; 曲从程; 赵永兴; 徐梓毓; 刘亚东; 刘自卫; 黄江南; 郝瑞源; 汤发源 |
| 地址 | 吉林省长春市卫星路7989号 |
专利主权项内容
1.基于深度学习的全天候跌倒检测方法,其特征是:该方法由以下步骤实现:步骤一、采集视频监控区域内的视频图像,并通过RTSP流媒体服务器将所述视频图像逐帧上传至上位机,并对所述上位机接收的视频图像进行预处理;步骤二、所述上位机获取视频图像帧的特征,并判断检测的图像为白天模式的彩色场景还是夜间模式的红外灰度场景,若为彩色场景,则执行步骤三;若为红外灰度场景,则执行步骤四;步骤三、通过目标检测判断人体宽高比特征,若人体目标检测边界框宽高比特征超过设定的跌倒阈值,初步判断为跌倒,则执行步骤五,否则,认为姿态正常,进行下一帧检测,返回执行步骤二;通过人体目标检测边界框的宽高比特征初步判断人体当前的形态特征,具体过程为:通过YoloX-S目标检测网络对视频图像进行人体的目标检测,得到人体目标检测边界框,通过人体目标检测边界框BBox的坐标获取人体宽高比:设定所述人体目标检测边界框BBox编码的形式为[x_min, y_min, x_max, y_max],则边界框宽高比的计算公式为:式中,x为边界框宽,y为边界框高,x_min,y_min为边界框的左上角坐标,x_max,y_max为边界框右下角坐标,设定人体宽高比的跌倒阈值为0.8,若则宽高比为异常;步骤四、通过神经网络模型对红外灰度场景图像进行着色处理后返回步骤三;步骤五、根据目标检测获得的人体目标检测边界框和床、椅子、沙发的边界框交并比进行人体是否处于活动区域的判断,若人体在活动区域内,则按照检测到的人体目标检测边界框大小进行框选,并进行人体姿态检测,执行步骤六;否则,视为人在休息区域,进行下一帧检测,返回步骤二;对框选后的人体目标进行姿态检测,具体过程为:根据所述人体目标检测边界框坐标,采用BBox的数值将人体目标所在的区域框选出来,传送至OpenPose网络中进行姿态识别,通过收集跌倒和正常的人体姿态图像,采用OpenPose网络进行骨架图识别,通过设定生成图像的底层为黑色背景来保留具有骨架图的图像,利用姿态检测网络进行训练,数据集分为正常姿态的骨架图和跌倒姿态的骨架图,通过PyTorch导出训练模型进行部署后实现人体姿态的检测;步骤六、通过设定的宽高比特征阈值权重与骨架图权重进行联合跌倒判断,若有跌倒行为发生,则设定跌倒标志位为1,否则,进行下一帧检测,返回步骤二。