您的位置首页 >网络舆情 >

MIT CSAIL的AI可以使用触摸显示对象

麻省理工学院计算机科学与人工智能实验室的研究人员称,能够通过触摸学习的机器人已经触手可及。真。在下周将在加利福尼亚州长滩举行的计算机视觉和模式识别会议上发表的一篇新发表的论文中,他们描述了一种人工智能系统,能够通过触觉信号生成物体的视觉表现,并预测来自片段的触觉。视觉数据。

“通过观察现场,我们的模型可以想象触摸平坦表面或锋利边缘的感觉,”CSAIL博士学生和研究的主要作者Yunzhu Li说道,他与麻省理工学院教授Russ Tedrake和Antonio Torralba一起撰写了这篇论文。麻省理工学院博士后朱俊妍。“通过盲目地触摸,我们的[AI]模型可以纯粹通过触觉来预测与环境的相互作用。将这两种感官结合在一起可以增强机器人的能力并减少我们在涉及操纵和抓取物体的任务时可能需要的数据。“

该团队的系统采用GANs - 两部分神经网络,包括生成样本的发生器和试图区分生成的样本和真实样本的鉴别器 - 根据触觉数据拼凑视觉图像。来自VisGel的触觉样本,包含超过300万个视觉/触觉数据对的语料库,包括近200个物体(如工具,织物和家用产品)的12,000个视频片段,它突出了接触位置的形状和材料,回头看参考图像来“想象”这种互动。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。