高速自主移动机器人的核心性能受限于剧烈运动状态下的精准状态估计难题。神经拟态事件相机凭借其仿生视网膜特性,通过异步像素响应和微秒级时间分辨率,为高速无人机、自动驾驶等场景提供了理想的视觉解决方案。然而,现有算法受限于运动依赖的观测特性和数据关联困难,在高速运动状态下,传统基于地图更新的视觉里程计方法往往失效,严重制约了其在高速自主系统中的应用潜力。
近日,我校人工智能与机器人学院周易教授团队(NAIL实验室)与香港科技大学郑家纯机器人研究所沈劭劼教授团队(港科大与大疆联合创新实验室)在高速移动机器人的状态估计方法研究中取得新进展。该创新成果提出了一种基于事件相机(Event Camera)和惯性测量单元(IMU)的高速运动状态估计方法,首次实现了仅依赖事件流与惯性数据的实时线性速度估计,为无人机、高速机器人等动态场景下的精准定位提供了新思路。研究团队从第一性原理出发创新性地提出了一种“速度计”式设计,通过融合立体事件相机的稀疏法向流和IMU数据,利用连续时间B样条模型直接估计瞬时线速度,避免了传统方法对特征匹配或环境结构的依赖。实验表明,在真实高速场景(如无人机急转、绳索旋转等)中,该方法的速度估计误差比现有技术降低50%以上,且计算效率满足实时性需求。
该合作研究成果《Event-based Visual-Inertial State Estimation for High-Speed Maneuvers》被国际机器人学重要期刊IEEE Transactions on Robotics (T-RO)正式接收。该研究由香港科技大学博士生Xiuyuan Lu与湖南大学周易教授担任共同第一作者、通讯作者。其中,Xiuyuan Lu作为访问生(visiting PhD student)在周易教授团队开展研究工作期间完成了该成果的核心攻关;此外,湖南大学人工智能与机器人学院NAIL实验室的麦嘉瑶、戴宽等研究人员在算法实现与实验验证环节做出了重要贡献。
此项工作获得了国家自然科学基金、国家重点研发计划“智能机器人”重点专项青年科学家项目、小米青年学者等项目的资助支持。研究团队特别感谢香港科技大学与湖南大学在跨校科研合作中提供的平台支持与资源保障。


空中高速移动机器人的状态估计结果展示。

地面高速移动机器人的状态估计结果展示。
来源:人工智能与机器人学院
通讯员:江颖
责任编辑:周丹