订阅
纠错
加入自媒体

MIT最新AI研究,让机器人利用触觉感知物体

2019-06-17 15:23
来源: 猎云网

麻省理工学院计算机科学及人工智能实验室(CSAIL)的研究人员表示,在不久的将来,机器人将能够通过触觉来感知物体。一篇最新的相关论文将于下周在加利福尼亚长滩市的计算机视觉与模式识别会议上公开,这篇论文描述了一种人工智能系统,它可以通过触觉信号生成触摸物的视觉形象,还能根据视觉数据来预测物体的触感。

“通过观察物体的表面,我们的模型可以预测某个平面或棱角的触感。通过触摸物体,我们的人工智能模型可以根据触感来构建感知到的环境。将这两种感知数据相结合,机器人的性能就会得到优化,它在搬运或抓取某个物体时所需的数据就更少,”CSAIL博士生Yunzhu Li说道,他与他的导师Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰写了本篇论文。

这支团队的系统采用了生成式对抗神经网络(GAN),这种神经网络包含了生成模型和判别模型,前者负责生成样本,后者负责辨别生成样本和现实样本的不同。该系统能将触觉数据产生的图像拼接起来。训练时它采用了VisGel的数据,该数据库拥有300万组视觉和触觉的配套数据,其中包含1.2万个视频片段,对象多达200种(包括工具、织物和家具产品等)。它会预测出形状和接触点的材料,然后与参考图片进行对比。

例如你给出一只鞋子上某个点的触觉数据,这个模型就能确定出这个接触点到底在什么地方。

这些参考图片能为目标物体或环境的细节进行编码,让机器学习模型不断自我完善。

这些研究人员指出,目前的数据集还非常有限,对于现有的系统而言,物体的颜色、柔软度等细节还很难预测。但很显然他们的研究会为更多的人机一体化打下基础,尤其是针对光线昏暗甚至黑暗密闭空间中的任务。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号