登Science合作期刊,这个触觉传感模拟器SimTac,让仿生机器人设计周期大幅缩短

大爆爆2026-03-121325机器人技术及应用

如果机器人能长出一只猫的爪子、一条章鱼的触手,甚至是大象的鼻子,它们的触觉会是什么样子?它们能用这些仿生结构感知物体的纹理、力度和滑动,像生物一样自适应地与环境互动吗?

这听起来像科幻,但一个名为SimTac的仿真平台正把它变成现实,近日,伦敦国王学院、北京理工大学、伦敦大学学院和葡萄牙INESC TEC研究所的团队在期刊《Cyborg and Bionic Systems》上发表论文,提出了一个能够模拟任意形状视觉触觉传感器的物理仿真框架。

它让机器人触觉传感器第一次可以“长成”任何生物形态,并在虚拟世界中提前感知它们的触觉体验,这种方法可以将触觉系统的设计和训练时间大幅缩短。



 

01.

触觉传感器的“形体危机”

“虽然人脑天生就知道抓取草莓和棒球棒之间的区别,并施加不同的力度,但机器人却不具备这种能力。”论文作者、伦敦国王学院机器人与人工智能教授Shan Luo说,“这导致机器人在处理各种复杂形状时遇到困难。”

生物的触觉与形态密不可分:人类手指有柔软的指腹和关节,猫的爪子有弹性肉垫,章鱼触手布满吸盘,大象鼻尖有两根指状突起能捏夹持和抓取各种物体。这些复杂结构赋予了它们与环境交互的非凡能力。

反观机器人领域,主流的视觉触觉传感器,将相机藏在软胶皮下,通过拍摄接触变形来感知触觉。绝大多数只有两种形状:平面方块或半球。即便有少数手指形状的传感器,也往往需要反复试错、多次硬件迭代才能勉强工作。

为什么?因为复杂曲面带来的挑战太大了。

与简单几何形状不同,自然和有机形态具有更复杂的几何结构,使得传感器在接触物体时产生的形变难以建模和估计。更麻烦的是,要在这些曲面内部集成摄像头和LED灯,还要保证光线路径可控、接触区域成像清晰,几乎是不可能完成的任务。

而基于学习的机器人感知方法又需要海量数据,靠真实传感器一个一个采集,成本高、周期长,传感器磨损了都未必够。

02.

SimTac:让触觉传感器“任意生长”

面对这些难题,研究团队给出的答案是:SimTac,一个基于物理的视觉触觉传感器仿真器。它的核心目标只有一个,让触觉传感器可以拥有任意复杂的仿生形态,并在虚拟世界中精确模拟其触觉响应,进而把设计和迭代从物理世界搬进数字世界。

SimTac由三大模块构成,分别解决了“任意曲面”下的三个核心难题,形成一个完整的仿真闭环。

第一,粒子形变仿真。他们把传感器的软胶皮离散成无数个粒子,每个粒子都带有质量、动量、应力等物理属性。当物体接触时,采用“物质点法”迭代计算每个粒子的运动。这样一来,不管传感器是弯曲的象鼻、有肉垫的猫爪,还是带吸盘的章鱼触手,都能准确模拟变形。

第二,光场渲染。SimTac提前计算两种光场,沿直线传播的线性光场和沿曲面传播的非线性光场,再结合冯氏光照模型(Phong's model)实时渲染出触觉图像。结果很显然:仿真图像与真实图像几乎无法区分。

第三,神经网络力预测。光有图像不够,机器人还需要知道接触力的分布。用传统的有限元法(FEM)算力,网格一密就慢得无法实时。SimTac的解决方案是:让MPM算变形,把变形数据喂给“稀疏张量网络”(STN),网络输出与FEM精度相当但速度快得多的力场。

这三块拼起来,SimTac做的不是换个形状接着仿,而是把任意形状这件事,从不可能变成了可能。


通过 SimTac 连接生物和人工触觉传感

03.

从象鼻到猫爪:仿真和现实对上了

SimTac最直观的展示,是它能模拟什么样的形状。研究团队一口气展示了四种生物形态的传感器。

人类手指:高曲率、全方位感知表面,已有GelTip传感器作为实例;

猫爪:带有肉垫结构的复杂曲面;

章鱼触手:柔软、带吸盘的管状结构;

象鼻:尖端有两个“手指”状突起,能捏取物体。



 

他们甚至真的按照仿真设计,制作了一个象鼻形状的触觉传感器。流程是这样的:先在SimTac里设计硅胶膜、指定LED和摄像头参数、定义驱动面和接触条件,然后生成触觉反馈图像。接着,按照仿真参数去3D打印模具、浇筑硅胶、涂反射层、装配,一个仿生象鼻触觉传感器就这样从虚拟世界“走”了出来。



 

对比仿真和真实的触觉反馈:物体接触时,变形区域的光影变化、象鼻“手指”闭合时的主动变形过程,两者高度一致。SimTac甚至能模拟传感器在执行抓取动作时的主动形变,这是以往仿真工具从未做到的。

04.

虚拟数据,解决真实世界的难题

能做新奇形状固然好,但仿真更务实的价值是:生成训练数据,然后迁移到真实任务中。研究团队在手指形状的GelTip传感器上,测试了三个典型的触觉感知任务:

任务一:物体形状分类。

用仿真图像训练ResNet50模型,然后零样本迁移到真实传感器。Sim2Real准确率97.0%,只比Sim2Sim(100%)低三个百分点。误分类主要发生在形状相似的物体上,比如平板压头和轻微曲面,广角镜头造成的畸变让它们看起来更接近。

任务二:滑移检测。

输入8帧连续的触觉图像,判断物体是否在滑动。滑动的关键特征是:物体轮廓在动,但传感器表面的标记点几乎静止。Sim2Real准确率92.06%。这个任务在真实世界做代价挺大,滑动的物体可能会刮伤传感器那层薄薄的反光膜。

任务三:接触安全评估。

用触觉图像预测安全系数。Sim2Real的平均绝对误差0.105。误差来源很真实:3D打印的真实物体有仿真里没有的表面纹理;压深增加时图像整体变暗;部分接触超出相机视野。


基于触觉的 Sim2Real 任务性能评估

这些任务之所以能用仿真数据做,前提是SimTac把“任意形状下的触觉信号”算准了。先有精准的仿真,才有可信的迁移。

05.

未来:机器人触觉,从“形似”走向“神似”

SimTac的出现,填补了一个明显但长期被忽视的空白:视觉触觉传感器的仿生形态设计工具。

过去二十年,触觉传感器从单点、阵列进化到视觉式、高分辨率;形状从方块、半球进化到手指形。但再往前,章鱼触手、象鼻、猫爪,缺乏设计工具和数据生成手段,进化不动了。


SimTac的逻辑是: 借助仿真预先对复杂形状传感器进行建模,渲染和力学预测,避免在现实环境中试错,从而缩短设计周期。在这个框架里“长”出想要的形态,看它如何感知世界,然后拿去真实世界制造。

“这极大地拓展了设计空间,并能让我们以极短的时间创造出实体触觉机器人。”张旭阳说。

当然,它还有局限:神经网络的训练依赖FEM真值数据,对于全新形状的传感器,高网格密度的数据收集仍需要几天时间。团队下一步计划是优化数据收集效率,并向驱动器仿真、复杂动态接触扩展。未来的工作将集中于制造完全仿生触觉机器人,并在当前研究中展示的扩展设计和训练框架的基础上进行发展。

当机器人的皮肤可以长成任何形状,它们的感知和交互能力将迎来一次重要的拓展。未来的机器人,或许真的能像生物一样,用自己的“皮肤”去感受这个世界。

 

论文链接:https://spj.science.org/doi/10.34133/cbsystems.0510

项目主页:https://xuyangzhang0223.github.io/SimTac/