省科学院智能制造所提出基于人类运动演示的机器人安全防护技能快速学习方法

文章供稿:吴鸿敏  |  发布日期:2021-12-14

  随着机器人应用广度与深度不断提升,人与机器人协同作业是人机共融的作业新模式,能有效解决多品种小批量快速换产需求,助推智能制造高质量发展。在开放式非结构化的共融场景下,如何让机器人快速适应任务与环境的变化,避免与操作者或动/静态障碍物发生碰撞,提升机器人的安全防护性能是亟待解决的关键问题。然而,传统通过障碍物感知与繁琐编程的机器人安全防护方法,极其费时费力,且适应性差,无法应用于人机共融场景。

  为了体现以人为本的智能制造,广东省科学院智能制造研究所机器人技术团队提出一种基于人类运动演示的机器人安全防护技能快速学习方法,通过人到机器人的运动技能传递,不仅充分发挥了操作者与机器人各自的优势,而且能够在保证安全的有效性之余,尽可能兼顾操作的灵活性和效率,是目前人机共融场景下安全防护的主要手段之一。该方法从模仿学习的角度出发,构建了基于先验均值高斯过程(Mean-prior Gaussian Processes)的安全防护技能学习方法,不仅考虑操作者演示运动轨迹的多样性(Variability),且能够通过设定安全点进行运动轨迹调整,实现安全防护。多样性的学习使机器人能够充分掌握操作者潜在的演示模式,提升安全防护的任务泛化性。而依据安全点的运动调整将会提升安全防护的环境适应性,使机器人快速适应环境的变化(障碍物等),同时保持其余运动一致,大幅提升机器人安全性与部署效率。该方法在物流仓储场景下人机协同物品装箱及机器人抓取进行了初步应用,能够快速适应任务与环境的变化,具备易使用、高效率等特点。

 

从人类演示中快速学习机器人安全防护运动技能的技术方案

  相关成果已发表在国际权威期刊《Neurocomputing》,吴鸿敏博士为第一作者,广东省科学院智能制造研究所为第一单位。

  论文信息:H. Wu, W. Yan, Z. Xu, S. Li, X. Zhou*. Learning Robot Anomaly Recovery Skills from Multiple Time-Driven Demonstrations. Neurocomputing. 2021 Nov 13; 464:522-32.

  论文链接:https://www.sciencedirect.com/science/article/abs/pii/S0925231221012200

附件下载: