2021年02期 v.46 34-38,48页
陈文峰 张学习 蔡述庭 熊晓明
(广东工业大学自动化学院,广东 广州 510006)
摘要:场景中的动态物体影响移动机器人定位算法的精度,使机器人无法建立蕴含场景信息的高精度地图,降低定位建图系统在复杂场景中的鲁棒性。针对目前主流动态SLAM技术受限于系统需求和硬件性能,无法兼顾移动机器人定位精度和系统实时性的问题,提出一种基于YOLO v3和传感器融合的机器人定位建图系统。首先,建立融合编码器和视觉传感器的机器人运动模型,求解移动机器人位姿;然后,利用深度学习技术剔除复杂场景中的动态物体,并针对YOLO v3目标检测网络特点,采用多视图几何方法进行性能优化;最后,经测试,本系统相比DS_SLAM具有更优的轨迹精度,耗时更短。
关键词:传感器融合;目标检测;动态物体;定位;多视图几何
中图分类号:TP830.1 文献标识码:A 文章编号:1674-2605(2021)02-0007-06
DOI:10.3969/j.issn.1674-2605.2021.02.007