← 返回列表
基于复合学习和单应性矩阵的机器人3D视觉伺服方法
申请人信息
- 申请人:中山大学
- 申请人地址:510275 广东省广州市海珠区新港西路135号
- 发明人: 中山大学
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 基于复合学习和单应性矩阵的机器人3D视觉伺服方法 |
| 专利类型 | 发明申请 |
| 申请号 | CN202410063853.3 |
| 申请日 | 2024/1/16 |
| 公告号 | CN117733868A |
| 公开日 | 2024/3/22 |
| IPC主分类号 | B25J9/16 |
| 权利人 | 中山大学 |
| 发明人 | 潘永平; 李志文; 黎卫兵 |
| 地址 | 广东省广州市海珠区新港西路135号 |
摘要文本
本申请公开了基于复合学习和单应性矩阵的机器人3D视觉伺服方法,包括:基于参数化相机模型,确定机械臂各个特征点的当前像素坐标和期望位姿的期望像素坐标;结合单应性矩阵对特征点进行单应性分解,得到当前像素坐标与期望像素坐标的旋转误差和深度比值;根据旋转误差和深度比值,采用归一化复合学习相机参数更新律更新在线标定参数;根据在线标定参数,采用控制器表达式计算力矩;根据力矩,将机械臂调整到期望位姿。本申请实施例能够对在线标定参数进行更为精确的标定,进而使得根据该在线标定参数计算的力矩能够更为精确,解决局部极小值的问题,能够精准地将机械臂调整到期望位姿,完成机器人3D伺服,可广泛应用于机器人技术领域。
专利主权项内容
1.基于复合学习和单应性矩阵的机器人3D视觉伺服方法,其特征在于,包括:基于参数化相机模型,确定机械臂各个特征点的当前像素坐标和期望位姿的期望像素坐标;结合单应性矩阵对所述特征点进行单应性分解,得到所述当前像素坐标与所述期望像素坐标的旋转误差和深度比值;根据所述旋转误差和所述深度比值,采用归一化复合学习相机参数更新律更新在线标定参数;根据所述在线标定参数,采用控制器表达式计算力矩;根据所述力矩,将机械臂调整到所述期望位姿。