触觉手套和感知算法

围绕触觉采集、可视化与感知算法的完整方案

这个项目围绕一套自研触觉手套展开,目标是完成触觉数据采集、界面可视化以及物体识别算法设计。整个系统从硬件采集端出发,逐步延伸到数据集构建、实时显示和感知模型验证。

项目概述

我希望让机器不仅能“看到”物体,还能通过触觉信号理解物体的状态与差异。为此,我设计并搭建了一套触觉手套系统,用于采集抓握过程中的压力分布和手指弯曲信息,并进一步结合可视化界面和感知算法完成识别任务。

触觉手套与数据采集

触觉手套由多个压力传感器和弯曲传感器组成,用来同步采集手掌压力分布与手指弯曲状态。通过这套装置,可以稳定记录抓取不同物体时的触觉变化过程,为后续建模提供原始数据。

触觉手套示意图

围绕这套手套,我构建了一个包含多类物体样本的触觉数据集,用于后续识别算法训练与效果验证。

触觉信号采集示意图

可视化界面

为了便于调试和观察模型输入输出,我使用 pyqtgraph 搭建了一套实时可视化界面。界面左侧显示传感器信号,中间展示触觉样本,右侧给出识别结果与概率分布,方便快速验证采集质量与分类表现。

可视化界面示意图

感知算法设计

在算法部分,我设计了基于图神经网络的触觉感知模型 Tactile-GAT。模型重点利用不同传感器之间的空间关系来建模触觉分布特征,从而提升对物体类别的识别能力。

Tactile-GAT

演示视频

触觉手套压力采集测试
触觉手套抓握演示视频

项目成果

该项目最终形成了完整的触觉采集与识别方案,并产出了论文与专利相关成果。