分享至
主讲人:郭策 | 国防科技大学在读博士生
2025.10.14 20:00
87分钟
120人次学习
立即学习
触觉与运动感知是人类灵巧操作的基础,然而,将这种多模态感官-运动映射能力赋予机械手仍是一个挑战。本研究提出一种以数据手套为媒介的感知-预测框架,旨在通过模仿学习实现从人手到机械手抓取技能迁移。 我们的工作涵盖三个核心层面:首先,利用适配性数据手套构建统一的触觉-运动数据流,为人与机器人提供一致的关节级感知输入。其次,我们创新性地建立了基于图结构与极坐标的多模态统一表征,显式编码手部形态差异以增强跨平台兼容性。最后,我们开发了触觉-运动时空图网络(TK-STGN),该模型通过多维图卷积与注意力时序建模,从演示数据中提取时空特征,并经由力-位混合映射预测关节控制指令。 广泛的实验验证表明,本方法在抓取成功率、手指协调性与接触力控制等方面超越现有方法且最接近人手抓握表现,并在泛化性与操作效率上展现出显著优势,为机器人实现类人灵巧操作提供了新的解决方案。
报名成功
添加助教,领取课件
点此立即学习
添加微信领取课件
一定记得备注【用户名+课程名称】