日前在意大利罗马举行的“机器人:科学与系统会议”上,来自麻省理工学院(MIT)的研究团队演示了如何利用“同步定位与建图”(SLAM)技术来提高目标识别的性能系统。
SLAM技术可以让移动机器人进行自我定位并绘制自己的位置图;目标识别系统是未来机器人的关键组成部分,帮助它们操纵周围的物体。新的目标识别系统是由麻省理工学院机械工程系教授约翰伦纳德(John Leonard)团队设计的。他们将当前的SLAM技术与目标识别算法相结合,仅使用普通摄像机作为外部输入来组合从不同角度获得的信息。总之,该系统的性能可与需要深度测量和视觉信息的专用机器人目标识别系统相媲美。
论文第一作者、麻省理工学院计算机科学与工程系研究生Sudeep Pirlay 表示,在猜测图像中包含哪些物体之前,新系统将首先识别两个物体之间的边界,并初步分析颜色过渡。这里基本上是将图像划分为多个矩形区域,每个矩形区域包含某个对象,然后对每个区域中的像素进行识别计算。
研究人员指出,传统的物体识别系统可能需要重绘这些矩形区域数千次。因为从某个角度来看,两个并排的物体看起来像是一个,特别是当它们颜色相似时。因此系统必须测试一些假设,例如假设它们是一个,或者假设它们是分开的。
SLAM技术生成的图像是三维的,因此在区分近距离物体方面比单角度分析系统要好得多。使用SLAM技术指导图像分割和分区计算在处理假设时更加高效。更重要的是,SLAM技术可以将不同角度的图像分区与目标识别系统关联起来。通过分析每个图像区域,可以绘制同一物体的不同角度,从而提高系统的识别能力。
目前,团队正在探索SLAM技术的核心问题“闭环”,即当机器人绘制出自己所在位置的地图时,它可能会发现自己以前来过这里。例如,当从不同的门进入同一个房间时,它必须能够识别出它之前去过哪里。哪里可以更好地结合不同角度的地图数据?