麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员开发了一种全新的人工智能,它可以通过看到物体来感知物体。
新的人工智能可以预测触摸一个物体的感觉,仅仅通过观察它。它还可以创建一个对象的视觉表示,仅仅从触摸产生的触觉数据。
CSAIL博士研究生、论文第一作者李云柱(音译)表示,该模型可以帮助机器人更好地处理现实世界中的物体:
“通过观察场景,我们的模型可以想象触摸一个平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以完全通过触觉来预测与环境的交互作用。将这两种感觉结合起来可以增强机器人的能力,并减少我们在操作和抓取物体时可能需要的数据。”
研究小组使用了一个库卡机器人手臂和一个特殊的触觉传感器,称为GelSight来训练模型。然后让手臂触摸200件家居物品12000次,记录下视觉和触觉数据。
在此基础上,它创建了一个包含300万张视觉和触觉图像的数据集,名为VisGel。
加州大学伯克利分校(University of California at Berkeley)博士后研究员安德鲁·欧文斯(Andrew Owens)认为,这项研究可以帮助机器人知道它应该如何牢牢地抓住一个物体:
“这是第一个能够令人信服地在视觉和触觉信号之间进行转换的方法。像这样的方法有可能对机器人非常有用,你需要回答像“这个物体是硬的还是软的?”或者“如果我提起这个杯子的把手,我的握力会有多好?
这是一个非常具有挑战性的问题,因为信号是如此不同,而这个模型已经显示出了巨大的能力。”
研究人员在美国举行的计算机视觉和模式识别会议上发表了这篇论文。
-End-
领取专属 10元无门槛券
私享最新 技术干货