新闻中心

EEPW首页 > 智能计算 > 业界动态 > MIT新机器人“成精了” 能通过视觉和触觉识别事物

MIT新机器人“成精了” 能通过视觉和触觉识别事物

作者: 时间:2019-06-19 来源:腾讯科技 收藏
编者按:通过观察场景,我们的模型可以想象触摸平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以纯粹通过触觉来预测与环境的交互。将这两种感觉结合起来,可以增强机器人的能力,减少我们在操作和抓取对象时可能需要的数据。

据外媒报道,对于人类来说,很容易通过观察某个物体来判断其外观,或者通过触摸它来判断它给人的感受,但是这对机器来说是可能是个巨大的挑战。现在,美国麻省理工学院()计算机科学和人工智能实验室(CSL)开发的一种新机器人,正试图获得人类的能力。

本文引用地址://www.cghlg.com/article/201906/401670.htm

CSL团队使用KUKA机器人手臂,并添加了一种名为GelSight的传感器,该传感器是由CSL下属泰德·阿德尔森(Ted Adelson)团队开发。GelSight收集的信息会被传输给人工智能(AI),以便后者能够理解信息和信息之间的关系。

为了教授AI如何通过触摸来识别物体,CSAIL团队录制了12000个视频,记录了200个物体,如织物、工具以及被触摸的家居物品。这些视频被分解成静态图像,AI使用这个数据集来连接触觉和数据。

CSAIL博士生、关于该系统的新论文主要作者李云珠(音译)表示:“通过观察场景,我们的模型可以想象触摸平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以纯粹通过触觉来预测与环境的交互。将这两种感觉结合起来,可以增强机器人的能力,减少我们在操作和抓取对象时可能需要的数据。”

目前,机器人只能在受控环境中识别物体。下一步是建立更大的数据集,这样机器人就可以在更不同的环境下工作。

加州大学伯克利分校博士后安德鲁·欧文斯(Andrew Owens)表示:“这种方法可能对机器人非常有用,因为它们需要回答这样的问题:‘这个物体是硬的还是软的?’或者‘如果我用手把这个杯子举起来,我的抓力会有多好?’这些都是非常具有挑战性的问题,因为信号是如此的不同,而的模型已经显示出很强的能力。”



关键词: MIT 视觉 触觉 AI

评论


相关推荐

技术专区

关闭