← 返回列表

一种基于目标检测和结构化特征的机器人定位方法

申请号: CN202410091570.X
申请人: 北京理工大学
申请日期: 2024/1/23

摘要文本

本发明涉及一种基于目标检测和结构化特征的机器人定位方法,该方法以深度相机构成的硬件平台为基础。基于RGB‑D深度相机实现了在复杂环境下的定位与地图构建,提高了定位的精度和稳定性。针对环境中存在动态物体导致的定位信息不准确或者直接定位失败的问题,使用基于卷积神经网络的YOLO算法对图像进行目标检测,去除环境中的高概率动态物体,针对低纹理环境或旋转估计中产生累积误差进而造成轨迹漂移的问题,基于曼哈顿世界假设增加结构特征。本方法在动态或低纹理的复杂环境下,极大地提高了位姿估计的准确性和鲁棒性,可广泛应用于室内机器人轨迹跟踪等场景。。数据由马 克 团 队整理

专利详细信息

项目 内容
专利名称 一种基于目标检测和结构化特征的机器人定位方法
专利类型 发明申请
申请号 CN202410091570.X
申请日 2024/1/23
公告号 CN117611677A
公开日 2024/2/27
IPC主分类号 G06T7/73
权利人 北京理工大学
发明人 吕茂斌; 董娟; 邓方; 陈晨; 解博炜; 刘格远
地址 北京市海淀区中关村南大街5号

专利主权项内容

1.一种基于目标检测和结构化特征的机器人定位方法,其特征在于该方法的步骤包括:步骤 S1:读取视觉传感器数据,视觉传感器数据包括RGB图像和深度图像,对视觉传感器数据进行校准、去噪、畸变矫正,然后对RGB图像/>进行处理后得到处理后的RGB图像/>;步骤 S2:基于FAST角点和BRIEF描述子提取RGB图像的特征点,基于LSD算法和LBD描述子提取RGB图像/>的特征线,基于AHC算法提取RGB图像/>的特征面;步骤 S3:基于卷积神经网络使用YOLO对RGB图像进行目标检测,根据目标检测结果去除环境中的高概率动态物体,得到RGB图像/>去除高概率动态物体时是指去除步骤S2中提取的该高概率动态物体的特征点、特征面和特征线;步骤 S4:对RGB图像进行特征匹配,得到与RGB图像/>相匹配的帧,采用自适应轨迹跟踪方法根据相匹配的帧对RGB图像/>进行粗略的相机位姿估计,得到相机位姿粗值,再根据相机位姿粗值使用BA进行精确的相机位姿估计,得到相机位姿精确值;步骤 S5:基于词袋模型进行轨迹的回环检测,回环检测提供了当前数据与历史数据的关联,在跟踪算法丢失之后,利用回环检测进行重定位;步骤 S6:根据估计的轨迹建立与任务要求对应的地图,包括稀疏地图和稠密地图;步骤 S7:重复步骤S1~S6,使得机器人跟踪轨迹不断趋近于基准轨迹。