MIT新机器人“成精了” 能通过视觉和触觉识别事物
编者按:通过观察场景,我们的模型可以想象触摸平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以纯粹通过触觉来预测与环境的交互。将这两种感觉结合起来,可以增强机器人的能力,减少我们在操作和抓取对象时可能需要的数据。
据外媒报道,对于人类来说,很容易通过观察某个物体来判断其外观,或者通过触摸它来判断它给人的感受,但是这对机器来说是可能是个巨大的挑战。现在,美国麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)开发的一种新机器人,正试图获得人类的视觉和触觉能力。
本文引用地址://www.cghlg.com/article/201906/401670.htmCSAIL团队使用KUKA机器人手臂,并添加了一种名为GelSight的触觉传感器,该传感器是由CSAIL下属泰德·阿德尔森(Ted Adelson)团队开发。GelSight收集的信息会被传输给人工智能(AI),以便后者能够理解视觉信息和触觉信息之间的关系。
为了教授AI如何通过触摸来识别物体,CSAIL团队录制了12000个视频,记录了200个物体,如织物、工具以及被触摸的家居物品。这些视频被分解成静态图像,AI使用这个数据集来连接触觉和视觉数据。
CSAIL博士生、关于该系统的新论文主要作者李云珠(音译)表示:“通过观察场景,我们的模型可以想象触摸平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以纯粹通过触觉来预测与环境的交互。将这两种感觉结合起来,可以增强机器人的能力,减少我们在操作和抓取对象时可能需要的数据。”
目前,机器人只能在受控环境中识别物体。下一步是建立更大的数据集,这样机器人就可以在更不同的环境下工作。
加州大学伯克利分校博士后安德鲁·欧文斯(Andrew Owens)表示:“这种方法可能对机器人非常有用,因为它们需要回答这样的问题:‘这个物体是硬的还是软的?’或者‘如果我用手把这个杯子举起来,我的抓力会有多好?’这些都是非常具有挑战性的问题,因为信号是如此的不同,而MIT的模型已经显示出很强的能力。”
评论