像人手一样抓握——从人类本体感觉统合中学习通用多指抓握技能

主讲人:郭策 | 国防科技大学在读博士生

  • 开课时间

    2025.10.14 20:00

  • 课程时长

    87分钟

  • 学习人数

    125人次学习

立即学习
添加助教,领取课件

立即学习

像人手一样抓握——从人类本体感觉统合中学习通用多指抓握技能

触觉与运动感知是人类灵巧操作的基础,然而,将这种多模态感官-运动映射能力赋予机械手仍是一个挑战。本研究提出一种以数据手套为媒介的感知-预测框架,旨在通过模仿学习实现从人手到机械手抓取技能迁移。
我们的工作涵盖三个核心层面:首先,利用适配性数据手套构建统一的触觉-运动数据流,为人与机器人提供一致的关节级感知输入。其次,我们创新性地建立了基于图结构与极坐标的多模态统一表征,显式编码手部形态差异以增强跨平台兼容性。最后,我们开发了触觉-运动时空图网络(TK-STGN),该模型通过多维图卷积与注意力时序建模,从演示数据中提取时空特征,并经由力-位混合映射预测关节控制指令。
广泛的实验验证表明,本方法在抓取成功率、手指协调性与接触力控制等方面超越现有方法且最接近人手抓握表现,并在泛化性与操作效率上展现出显著优势,为机器人实现类人灵巧操作提供了新的解决方案。

直播精华文稿暂未上传
机器人与自动驾驶 具身智能 具身智能 进阶
机器人与自动驾驶 具身智能 具身智能 高级
机器人与自动驾驶 人形机器人 具身智能 进阶
机器人与自动驾驶 人形机器人 三维视觉 规划控制 定位与建图 具身智能 环境感知 高级